Large Language Models (LLM) sind die algorithmische Grundlage der Künstlichen Intelligenz (AI), die allerdings Unmengen an Trainingsdaten benötigen, um Texte, Bilder und Audio-Dateien generieren zu können. Derzeit tobt ein Marketingkampf, in dem die Größe der Modelle Aussagen über deren Leistungsfähigkeit signalisieren soll, im Sinne von: je größer, je besser. Dabei wird meist übersehen, dass LLMs neben vielen Daten auch sehr viel Rechenpower und sehr viel Energie für den Betrieb der zugrundeliegenden Rechnerfarmen benötigen, Aufwände an Terabyte, TeraFLOPS und Terawatt, die sich nur die üblichen Big Player der Digitalindustrie bislang leisten können und wollen. Die Computing Power für Training und Anwendung der KI ist jedoch alles andere als eine saubere „grüne Technologie“.
Professor Björn Ommer, Inhaber des Lehrstuhls für KI für Computer Vision und Digital Humanities/die Künste an der LMU und bekannt durch seinen schlanken Text zu Bild-Generator „Stable Diffusion“, findet im Interview jedoch nicht nur Nachhaltigkeitsgründe, die gegen den gegenwärtigen Überbietungskampf der LLMs sprechen.