Tech »  Five techniques to reach the efficient frontier of LLM inference