Künstliche Intelligenz humanisieren

Künstliche Intelligenz humanisieren

2023 war das Jahr der Künstlichen Intelligenz. Wir haben bahnbrechende Entwicklungen erlebt – positive wie negative (und teilweise überraschende, wie der Papst im Balenciaga-Mantel). KI hilft bereits heute Ärzten, Krebs zu entdecken, Forschern, dem Klimawandel zu begegnen, unterrichtet Schüler, die sonst kaum Zugang zu Bildung haben, und KI hilft uns allen, weil wir langweilige E-Mails nicht mehr selbst schreiben müssen. Doch gleichzeitig haben wir im vergangenen Jahr gesehen, wie KI Fake News bevorzugt und seriöse Nachrichten unterdrückt, Killer-Drohnen steuert und Unschuldige ins Gefängnis bringen kann.

Neue Generative-KI-Modelle wie Metas LLaMA 2, Googles Bard-Chatbot und allen voran OpenAI’s GPT-4 haben uns zum Staunen gebracht – und mächtig erschreckt. Diese rasante Entwicklung hat zu einer sehr hitzigen Debatte geführt: Optimisten versus Apokalyptiker.

Die Optimisten sehen in Künstlicher Intelligenz eine utopische Zukunft ohne Leid, Krankheit und Hunger und fordern eine zügellose Beschleunigung aller Investitionen und Forschung im KI-Sektor. Die Apokalyptiker dagegen fordern eine Bremse. Im März 2023 unterschrieben zahlreiche bekannte Wissenschaftler und Unternehmer eine Petition für eine sechsmonatige Pause von großen KI-Experimenten. Darunter: Elon Musk, Steve Wozniak, Yuval Noah Harari, Berkeley-Professor Stuart Russell und Yoshua Bengio, Gründer und wissenschaftlicher Direktor von Mila, das Quebec Artificial Intelligence Institute.

Doch diese binäre Debatte ist eine Pseudo-Debatte, die der Realität nicht gerecht wird. Die Frage lautet nicht: Bremsen oder Beschleunigen? Sondern: Was wollen wir beschleunigen?

Wir brauchen einen Ethik-Kodex für KI

Statt uns vor einem Wirklichkeit gewordenen HAL 9000 zu fürchten, dem Computer mit (neurotischen) menschlichen Zügen aus dem Film 2001: Odyssee im Weltraum, müssen wir Künstliche Intelligenz zunächst demystifizieren. KI ist keine unheimliche Macht, die darauf lauert, die Menschheit zu versklaven oder gar zu vernichten. Und wenn wir KI richtig gestalten, dann wird sie das auch nie werden.

KI ist ein Tool. Ein Werkzeug, das sich trotz der rasanten Fortschritte noch in seinen Anfängen befindet und das wir Menschen mit unseren Entscheidungen beeinflussen können. Wir müssen uns deshalb die Frage stellen: In was wollen wir investieren? In lügende Chatbots, Deepfake-Propaganda und „Kunst“-Generatoren, die von menschlichen Künstlern stehlen? Oder in eine KI, die uns Menschen entlastet? Die uns ein gesünderes, moderneres und würdiges Menschsein bereitet? Die keine Arbeitsplätze wegnimmt, sondern den gut ausgebildeten Wissensarbeiter von morgen unterstützt? Weil sie uns unangenehme Aufgaben abnimmt, globale Krisen löst und uns dort unterstützt, wo unsere menschlichen Fähigkeiten nicht ausreichen?

Anders gesagt: Wir sollten nicht nur fragen, welchen Nutzen wir Menschen für die neue und wirklichkeitsverändernde Technologie haben – wir sollten vielmehr fragen, welchen Nutzen die Künstliche Intelligenz für ein besseres Menschsein parat hält und wie wir sie verantwortlich einsetzen.

Wir müssen also die Perspektive wechseln – und den Fortschritt selbst vorantreiben, geleitet von humanistischen Prinzipien. Für diesen neuen Ansatz braucht es keine Bremse, sondern einen ethischen Rahmen, der uns hilft, verantwortungsvolle Entscheidungen zu treffen – denn selbst mit der besten Absicht kann man ungewollte negative Effekte hervorrufen. Wir brauchen also Leitlinien, die uns in Graubereichen Orientierung geben, die uns ermöglichen, für bestimmte Anwendungen verbindliche Regeln zu entwickeln, und die in jeder Instanz einer Forschungseinheit, eines Unternehmens oder einer Regierung gelebt werden, die mit KI arbeitet.

Wie könnte diese digitale Ethik aussehen?

Wir bei Merck haben dazu zum Beispiel ein eigens eingerichtetes externes Beratungsgremium und einen Kodex für den verantwortungsvollen Umgang mit Daten und KI geschaffen (Code of Digital Ethics). Dieser Kodex beruht auf fünf Leitprinzipien:

  • Gerechtigkeit: Wir setzen uns mit all unseren digitalen Produkten für Gerechtigkeit ein.
  • Autonomie: Wir respektieren mit unseren digitalen Angeboten die Autonomie jedes einzelnen Menschen.
  • Wohltätigkeit: Wir bedienen die Bedürfnisse und fördern das Wohlbefinden des Individuums und der Gesellschaft durch unsere digitalen Angebote.
  • Schadensvermeidung: Wir vermeiden es, durch unsere digitalen Angebote anderen Schaden zuzufügen.
  • Transparenz: Wir streben nach der größtmöglichen Transparenz für unsere digitalen Angebote.

Diese fünf Prinzipien sind jeweils sehr detailliert definiert und helfen uns, konkrete Leitlinien für bestimmte Anwendungen zu gestalten oder Produkte verantwortungsvoll zu entwickeln. So bedeutet der Wert „Autonomie“ für uns zum Beispiel in der Praxis unter anderem, dass wir unsere algorithmischen Systeme erklären. Denn wir sind davon überzeugt, dass algorithmische Systeme erklärbar sein sollten. Jeder, der unsere digitalen Dienste nutzt, sollte wissen, ob er direkt oder indirekt von einer automatisierten Entscheidung betroffen ist.

Die Europäische Union arbeitet derzeit an einer Regulierung für Anbieter und Nutzer von KI-Systemen. Unser Code of Digital Ethics wird auch im Bereich der KI anwendbar sein und Leitplanken für unsere Arbeit bieten. Denn wir wollen ein positives Klima für den Einsatz von KI schaffen und das Vertrauen der Öffentlichkeit über das reine Risikomanagement hinaus fördern.

„Moralische“ Fragen bleiben schwierig

Digitale Ethik ist noch ein junges Feld und viele Fragen sind noch offen. Merck will dabei eine Vorreiterrolle einnehmen. Digitale Technologien erfordern verlässliche ethische Standards und diese Standards sollten unser tägliches Geschäft im digitalen Zeitalter leiten.

Dabei müssen wir realistisch bleiben. Sieht man sich die aktuelle Debatte um Ethik und KI an, so bekommt man den Eindruck: KI soll noch moralischer sein als die Menschen selbst. Dieser Anspruch ist Unsinn.

Zum einen gibt es natürlich nicht „die eine Moral“. Zwar geben heutige Large-Language-Models wie ChatGPT bereits heute oft Antworten auf moralische Fragen, die menschliche Testpersonen als „moralisch richtig“ einstufen würden. Doch liegt das laut eines im September 2023 veröffentlichten Arbeitspapiers von Forschern der Harvard Universität meist an einem Vorurteil: Sowohl die Texte, mit denen die Modelle trainiert wurden, als auch die meisten Testpersonen stammen aus einem Kulturkreis, den die Wissenschaftler liebevoll mit „Western, Educated, Industrialized, Rich, and Democratic“ zusammenfassen – kurz: WEIRD. Und selbst wir WEIRDOs können uns nicht auf eine Moral einigen.

Und selbst wenn es „die eine Moral“ gäbe – wer will schon eine KI nutzen, die moralischer ist als wir selbst? Wer kauft zum Beispiel ein selbstfahrendes Auto, das sich letztlich weigert zu fahren, weil das Fahrrad weniger umweltschädlich ist?

Wie gesagt, diese Debatte ist zu jung, um sie in einem Blogbeitrag zu lösen. (Für alle, die tiefer einsteigen wollen: Paul Bloom, Professor für Psychologie an der University of Toronto, gibt in diesem Artikel im Magazin New Yorker einen ebenso unterhaltsamen wie tiefgründigen Einblick.) Doch diese Beispiele zeigen vielleicht schon, wie komplex die Frage ist.

Für unsere praktischen Zwecke bei Merck haben wir aber gemerkt: Wir können nicht alle Fragen lösen, schon gar nicht allein. Doch es gibt moralische Mindeststandards, auf die wir uns einigen können und die uns helfen, Entscheidungen zu treffen und in die KI zu investieren, die uns Menschen hilft. Unser Code of Digital Ethics hilft uns bei Merck, die Chancen des digitalen Fortschritts zu ergreifen und gleichzeitig die Risiken zu minimieren. Geleitet von diesem Kodex können wir Innovationen in der KI gezielt fördern.

Dazu ist neben der Human Intelligence und der Artificial Intelligence noch ein dritter Parameter nötig: Material Intelligence. Was sich dahinter verbirgt, darauf werde ich in meinem nächsten Blog-Beitrag eingehen.

Dr. Ing. Detlef Bleise

Erfinder der Erfolgsphysik zur Entschlüsselung der Unternehmens-DNA

8 Monate

Die Balance zwischen der künstlichen und humanen Intelligenz zu finden, ist eine große Herausforderung. Da aktuell sehr viel in Richtung KI gedacht und getan wird, stellt sich die Frage: „Was tun wir für die humane Intelligenz. Eine Anekdote bringt es am besten auf den Punkt. Ein Professor für Biologie ist mit seinen Studenten auf der Suche nach besonderen Pflanzen, die er bestimmen will. Er sieht ein schönes Exemplar und springt freudestrahlend über einen Zaun, um an dieses Exemplar zu kommen. Er sieht am Rande seines Sichtfeldes eine Kuh. Kaum ist er bei der Pflanze hört lautes Stampfen in seine Richtung. Nur mit Not kann er sich vor dem wütenden Stier retten, indem er wieder hinter den Zaun springt. Die Schlussfolgerung ist nicht, den Zaun nicht zu überwinden, sondern dabei den Stier nicht zu ignorieren.

Marc R. Esser

Von Strategie bis Umsetzung: Ihr Partner im digitalen Zeitalter!

8 Monate

Great post! It's wonderful to see companies like Merck Group taking a human-centered approach to AI. As AI continues to advance, it's crucial that we consider the ethical implications and harness its potential for the benefit of humanity. I'm looking forward to reading your blog post on humanizing artificial intelligence.

Maxim Babarinow

CEO bei RUBINLAKE.com • Ihre Intelligence für Talent Acquisition und Sales Targeting 🔍💼

9 Monate

Ich war nicht persönlich vor Ort, habe jedoch die Berichterstattung präzise verfolgt und hatte den Eindruck, dass obwohl einige interessante, KI-basierte Geräte vorgestellt wurden, war diese Technologie nicht so präsent wie erwartet. Wie ist Ihre Meinung dazu?

Zum Anzeigen oder Hinzufügen von Kommentaren einloggen

Ebenfalls angesehen

Themen ansehen