KI steuert auf eine Katastrophe à la Hindenburg zu, sagt Oxford-Professor

KI-Unternehmen stehen unter Druck, neue Tools auf den Markt zu bringen, um neue Kunden zu gewinnen. Dieser Ansatz könnte jedoch in Zukunft zum Verhängnis werden, da wir nicht wissen, welche Schwachstellen er hat.

KI könnte zu einer großen Katastrophe führen, wenn sie nicht richtig eingesetzt wird, warnt ein Professor aus Oxford.
KI könnte zu einer großen Katastrophe führen, wenn sie nicht richtig eingesetzt wird, warnt ein Professor aus Oxford.
Ameya Paleja
Ameya Paleja Meteored Vereinigtes Königreich 4 min

Das rasante Tempo der Einführung künstlicher Intelligenz (KI) auf dem heutigen Markt hat das Risiko einer Katastrophe im Stil des Hindenburg-Unglücks für die Technologie insgesamt erhöht, warnte Michael Wooldridge, Professor für KI an der Universität Oxford.

Die Hindenburg war ein Luftschiff, das Menschen über den Atlantik beförderte. Im Jahr 1937, während eines Landeversuches in New Jersey, ging das Luftschiff in Flammen auf, als die 200.000 Kubikmeter Wasserstoff, die es in der Luft hielten, Feuer fingen. Bei dem Unfall kamen 36 Menschen ums Leben, darunter Besatzungsmitglieder, Passagiere und Bodenpersonal, und auch das Interesse an Luftschiffen schwand.

Klassisches Technologieszenario

Wooldridges Vergleich von KI mit einer fast hundert Jahre zurückliegenden Katastrophe mag übertrieben erscheinen, aber es ist das klassische Szenario, das jeder neuen Technologie folgt. Wooldridge sagt, dass vielversprechende neue Technologien einem immensen kommerziellen Druck ausgesetzt sind, aber in der Regel nicht so rigoros getestet werden, wie man es sich wünschen würde.

Der Professor räumte ein, dass Unternehmen, die KI-Tools entwickeln, unter enormem Druck stehen, neue Produkte auf den Markt zu bringen und Kunden zu gewinnen. Die Mängel dieser Tools oder sogar ihre Fähigkeiten sind jedoch noch nicht vollständig verstanden.

Da KI in verschiedenen Branchen eingesetzt wird, warnt Wooldridge, dass jeder Sektor von einem schwerwiegenden Zwischenfall betroffen sein könnte – von selbstfahrenden Autos über Fluggesellschaften bis hin zum Bankensektor – und dass dies öffentlich bekannt werden würde. Dies könnte der „Hindenburg-Moment“ der KI sein, nach dem das Interesse an KI plötzlich nachlassen könnte.

Die KI, die wir brauchen

Wooldridge sagt, dass KI eigentlich dazu gedacht war, fundierte und vollständige Lösungen für von Menschen gestellte Probleme zu berechnen. Stattdessen haben Unternehmen Chatbots entwickelt, die Wörter auf der Grundlage von Wahrscheinlichkeitsverteilungen vorhersagen.

Während dies bei einigen Problemen funktioniert, ist es für andere schrecklich. Was es noch schlimmer macht, ist die Sicherheit, mit der die KI die Antworten liefert, unabhängig davon, ob sie richtig oder falsch sind.

Unternehmen entwickeln KI-Chatbots, die sich immer menschlicher anhören, und ihre schmeichlerischen Antworten führen bereits zu Irreführungen. Anstatt Leitplanken zu errichten, überschreiten Unternehmen diese aus kommerziellen Gründen, und Entwicklung und Sicherheitstests haben keine Priorität.

Chatbots dürfen daher so agieren, als ob sie alles wüssten und verstünden, aber im Grunde genommen sind sie nichts weiter als glorifizierte Tabellenkalkulationen, warnt Wooldridge.

Der Oxford-Professor lässt sich von der Science-Fiction-Serie Star Trek inspirieren, um zu erläutern, wie KI funktionieren sollte. In einer Folge der Serie aus dem Jahr 1968 stellt Spock dem Computer an Bord der Enterprise eine Frage, und dieser antwortet, dass er nicht über ausreichende Daten verfügt, um sie zu beantworten.

Vielleicht ist das eine zuverlässigere und realistischere Version der KI, die anstelle der übermäßig selbstbewussten Chatbots, die wir derzeit haben, eingeführt werden sollte.