Kleine Sprachmodelle : Die Welt der KI-Modelle spaltet sich – das spart Ressourcen
Von Nina Müller
Lesezeit: 5 Min.
Eineinhalb Jahre lang jeden Tag mit dem Flieger von Frankfurt nach New York fliegen – oder ein KI-Modell wie GPT-3 trainieren: Beides würde ähnlich viel CO₂ verbrauchen, schätzungsweise 552 Tonnen, haben Forscher berechnet. Und mit jedem neuen Modell wollen KI-Unternehmen wie Open AI höher hinaus. „Die Large Language Models werden immer größer. Aber größere Modelle haben zwei Probleme: Erstens: Sie sind teuer. Und zweitens: Sie brauchen lange, um eine Frage zu beantworten“, sagt Arsalan Tavakoli-Shiraji, Mitgründer des Unternehmens Databricks und SVP of Field Engineering.
Einführungs-
angebot
angebot
Zugriff auf alle Inhalte inklusive FAZ+
12,80 € jetzt 2 Monate kostenfrei testen
Zugriff auf alle Inhalte inkl. FAZ+
12,80 € jetzt 2 Monate kostenfrei
- Mit einem Klick online kündbar