Gemini für Google Cloud und verantwortungsbewusste Anwendung von KI

In diesem Dokument wird beschrieben, wie Gemini für Google Cloud im Hinblick auf die Funktionen, Einschränkungen und Risiken konzipiert wurde, die mit generativer KI verbunden sind.

Funktionen und Risiken von Large Language Models

Large Language Models (LLMs) können viele nützliche Aufgaben ausführen, z. B.:

  • Sprache übersetzen
  • Fasse Text zusammen.
  • Code und kreatives Schreiben generieren.
  • Chatbots und virtuelle Assistenten unterstützen.
  • Ergänzung von Suchmaschinen und Empfehlungssystemen

Gleichzeitig sorgen die sich entwickelnden technischen Fähigkeiten von LLMs dafür, potenziellen Missbrauch und unbeabsichtigte oder unvorhergesehene Folgen.

LLMs können unerwartete Ausgaben generieren, einschließlich Text, der beleidigend, grob oder tatsächlich falsch ist. Da LLMs unglaublich vielseitig sind, kann es schwierig sein, genau vorherzusagen, welche Art unbeabsichtigter oder unvorhergesehener Ausgaben sie erzeugen könnten.

Angesichts dieser Risiken und der Komplexität wurde Gemini für Google Cloud mit Die KI-Grundsätze von Google in denken. Es ist jedoch wichtig, dass Nutzer einige der Einschränkungen von Gemini kennen, damit Google Cloud sicher und verantwortungsvoll eingesetzt werden kann.

Einschränkungen von Gemini für Google Cloud

Einige Einschränkungen, die bei der Verwendung von Gemini auftreten können für Google Cloud umfassen unter anderem Folgendes:

  • Grenzfälle Grenzfälle beziehen sich auf ungewöhnliche, seltene oder außergewöhnliche Situationen. die in den Trainingsdaten nicht gut repräsentiert sind. Diese Fälle können zu Einschränkungen bei der Ausgabe von Gemini-Modellen führen, z. B. Modellselbstüberschätzung, Fehlinterpretation des Kontexts oder unangemessene Ausgaben.

  • Modellhalluzinationen, Fundierung und Fakten Gemini-Modellen mangelt es möglicherweise an Grundlagen und Fakten aus der realen Welt, physischen Eigenschaften oder korrektem Verständnis. Diese Einschränkung kann zu Modellhalluzinationen führen, bei denen Gemini for Google Cloud Ausgaben generiert, die zwar plausibel klingen, aber faktisch falsch, irrelevant, unangemessen oder sinnlos sind. Halluzinationen können auch die Fälschung von Links zu Webseiten, die gar nicht existieren. Weitere Informationen finden Sie unter Bessere Prompts für Gemini for Google Cloud schreiben.

  • Datenqualität und -optimierung: Die Qualität, Genauigkeit und Verzerrung des Prompts Daten, die in Gemini für Google Cloud eingegeben werden Produkte einen erheblichen Einfluss auf ihre Leistung haben. Wenn Nutzer ungenaue oder falsche Eingabeaufforderungen eingeben, gibt Gemini für Google Cloud möglicherweise suboptimale oder falsche Antworten zurück.

  • Verstärkung von Voreingenommenheit Sprachmodelle können versehentlich vorhandene Vorurteile in den Trainingsdaten verstärken. Dies kann zu Ergebnissen führen, die gesellschaftliche Vorurteile und die ungleiche Behandlung bestimmter Gruppen weiter verstärken.

  • Sprachqualität: Während Gemini für Google Cloud liefert beeindruckende mehrsprachige Funktionen in den von uns die meisten unserer Benchmarks (einschließlich aller Fairness-Bewertungen) sind in amerikanischem Englisch.

    Language Models können verschiedenen Nutzern eine inkonsistente Dienstqualität bieten. Beispielsweise ist die Texterzeugung für einige Dialekte oder Sprachvarianten aufgrund ihres geringen Vorkommens in den Trainingsdaten möglicherweise nicht so effektiv. Bei anderen Sprachen als Englisch oder Englisch ist die Leistung möglicherweise schlechter. weniger repräsentativ sind.

  • Fairness-Benchmarks und Untergruppen Die Fairness-Analysen des Google Research-Teams für Gemini-Modelle bieten keine vollständige Darstellung der verschiedenen potenziellen Risiken. Beispielsweise konzentrieren wir uns auf Vorurteile im Hinblick auf Geschlecht, ethnische Herkunft, Ethnie und Religion. Die Analyse erfolgt jedoch nur für englischsprachige Daten und die Modellausgaben.

  • Begrenzte Fachkenntnisse Gemini-Modelle wurden mit Google Cloud-Technologie trainiert, haben aber möglicherweise nicht das nötige Wissen, um präzise und detaillierte Antworten im Fall von hoch spezialisierten oder technischen Themen zu liefern. Dies kann zu oberflächlichen oder falschen Informationen führen.

    Wenn Sie den Bereich Gemini in der Google Cloud Console verwenden, ist Gemini nicht kontextbezogen auf Ihre spezifische Umgebung. Daher kann es Fragen wie „Wann habe ich zuletzt eine VM erstellt?“ nicht beantworten.

    In einigen Fällen sendet Gemini for Google Cloud ein bestimmtes Segment Ihres Kontexts an das Modell, um eine kontextspezifische Antwort zu erhalten. Das ist beispielsweise der Fall, wenn Sie auf der Seite „Fehler melden“ auf die Schaltfläche Vorschläge zur Fehlerbehebung klicken.

Gemini-Filter für Sicherheit und Toxizität

Prompts und Antworten von Gemini für Google Cloud werden anhand einer umfassenden Liste von Sicherheitsattributen überprüft, die für jeden Anwendungsfall gelten. Mit diesen Sicherheitsattributen sollen Inhalte herausgefiltert werden, die gegen unsere Richtlinien zur Fairen Nutzung verstoßen. Wenn eine Ausgabe als schädlich eingestuft wird, wird die Antwort blockiert.

Nächste Schritte