Lama3.java – LLM-Inferenz auf GraalVM
In dieser Artikelserie ging es schon öfter um Performance-Grenzen der JVM, von LMAX-Disruptor bis zur 1 Billion Row Challenge. -> https://www.sigs.de/experten/michael-hunger/
Eine neue Herausforderung in der Leistungsgesellschaft der Hardcore-Optimierer liegt in der Beschleunigung der Ausführung (Inferenz) und im Training von großen Sprachmodellen (LLMs).