KI steuert auf eine Katastrophe à la Hindenburg zu, sagt Oxford-Professor
KI-Unternehmen stehen unter Druck, neue Tools auf den Markt zu bringen, um neue Kunden zu gewinnen. Dieser Ansatz könnte jedoch in Zukunft zum Verhängnis werden, da wir nicht wissen, welche Schwachstellen er hat.
Das rasante Tempo der Einführung künstlicher Intelligenz (KI) auf dem heutigen Markt hat das Risiko einer Katastrophe im Stil des Hindenburg-Unglücks für die Technologie insgesamt erhöht, warnte Michael Wooldridge, Professor für KI an der Universität Oxford.
Die Hindenburg war ein Luftschiff, das Menschen über den Atlantik beförderte. Im Jahr 1937, während eines Landeversuches in New Jersey, ging das Luftschiff in Flammen auf, als die 200.000 Kubikmeter Wasserstoff, die es in der Luft hielten, Feuer fingen. Bei dem Unfall kamen 36 Menschen ums Leben, darunter Besatzungsmitglieder, Passagiere und Bodenpersonal, und auch das Interesse an Luftschiffen schwand.
Klassisches Technologieszenario
Wooldridges Vergleich von KI mit einer fast hundert Jahre zurückliegenden Katastrophe mag übertrieben erscheinen, aber es ist das klassische Szenario, das jeder neuen Technologie folgt. Wooldridge sagt, dass vielversprechende neue Technologien einem immensen kommerziellen Druck ausgesetzt sind, aber in der Regel nicht so rigoros getestet werden, wie man es sich wünschen würde.
Da KI in verschiedenen Branchen eingesetzt wird, warnt Wooldridge, dass jeder Sektor von einem schwerwiegenden Zwischenfall betroffen sein könnte – von selbstfahrenden Autos über Fluggesellschaften bis hin zum Bankensektor – und dass dies öffentlich bekannt werden würde. Dies könnte der „Hindenburg-Moment“ der KI sein, nach dem das Interesse an KI plötzlich nachlassen könnte.
Die KI, die wir brauchen
Wooldridge sagt, dass KI eigentlich dazu gedacht war, fundierte und vollständige Lösungen für von Menschen gestellte Probleme zu berechnen. Stattdessen haben Unternehmen Chatbots entwickelt, die Wörter auf der Grundlage von Wahrscheinlichkeitsverteilungen vorhersagen.
Während dies bei einigen Problemen funktioniert, ist es für andere schrecklich. Was es noch schlimmer macht, ist die Sicherheit, mit der die KI die Antworten liefert, unabhängig davon, ob sie richtig oder falsch sind.
Unternehmen entwickeln KI-Chatbots, die sich immer menschlicher anhören, und ihre schmeichlerischen Antworten führen bereits zu Irreführungen. Anstatt Leitplanken zu errichten, überschreiten Unternehmen diese aus kommerziellen Gründen, und Entwicklung und Sicherheitstests haben keine Priorität.
Der Oxford-Professor lässt sich von der Science-Fiction-Serie Star Trek inspirieren, um zu erläutern, wie KI funktionieren sollte. In einer Folge der Serie aus dem Jahr 1968 stellt Spock dem Computer an Bord der Enterprise eine Frage, und dieser antwortet, dass er nicht über ausreichende Daten verfügt, um sie zu beantworten.
Vielleicht ist das eine zuverlässigere und realistischere Version der KI, die anstelle der übermäßig selbstbewussten Chatbots, die wir derzeit haben, eingeführt werden sollte.