Es vergeht kein Tag ohne einen faszinierenden Beitrag über die ethischen Herausforderungen, die durch „Black Box“-Systeme mit künstlicher Intelligenz entstehen. Diese nutzen maschinelles Lernen, um Muster in Daten zu erkennen und Entscheidungen zu treffen – oft ohne dass ein Mensch ihnen eine moralische Grundlage dafür gibt, wie sie es tun sollen.
Zu den Klassikern dieses Genres gehören die Kreditkarten, denen vorgeworfen wird, dass sie Männern mehr Kredite gewähren als Frauen, nur weil das eine Geschlecht in der Vergangenheit die besten Kreditkonditionen erhalten hat. Oder die KI für die Personalbeschaffung, die herausfand, dass das genaueste Instrument für die Bewerberauswahl darin bestand, Lebensläufe zu finden, die den Ausdruck „Feldhockey“ oder den Vornamen „Jared“ enthielten.
Der ehemalige Google-CEO Eric Schmidt hat kürzlich zusammen mit Henry Kissinger das Buch The Age of AI: And Our Human Future veröffentlicht, in dem vor den Gefahren maschinell lernender KI-Systeme gewarnt wird, die so schnell sind, dass sie auf Hyperschallraketen reagieren und Atomwaffen abfeuern könnten, bevor ein Mensch in den Entscheidungsprozess eingreifen kann. Tatsächlich sind autonome KI-gesteuerte Waffensysteme bereits auf dem Markt und wurden möglicherweise auch schon eingesetzt.
Es ist daher nur natürlich, dass wir die Ethik der KI in unser Postgraduierten-Diplom in Künstlicher Intelligenz für Unternehmen an der Said Business School in Oxford aufnehmen. Im ersten Jahr des Kurses haben wir uns mit allen möglichen Themen befasst, von den KI-gesteuerten automatisierten Aktienhandelssystemen in Singapur bis hin zu den Grenzen der Gesichtserkennung bei der Polizeiarbeit in den USA.
Kürzlich beendeten wir den Kurs mit einer Debatte in der berühmten Oxford Union, dem Schmelztiegel großer Debattierer wie William Gladstone, Robin Day, Benazir Bhutto, Denis Healey und Tariq Ali. Zusammen mit den Studenten ließen wir eine echte KI zu Wort kommen.
Es handelte sich um den Megatron Transformer, der vom Applied Deep Research-Team des Computerchip-Herstellers Nvidia entwickelt wurde und auf früheren Arbeiten von Google basiert. Wie viele Tools für überwachtes Lernen wird es mit realen Daten trainiert – in diesem Fall mit der gesamten Wikipedia (in englischer Sprache), 63 Millionen englischen Nachrichtenartikeln aus den Jahren 2016-19, 38 Gigabyte Reddit-Diskursen (was eine ziemlich deprimierende Lektüre sein muss) und einer großen Anzahl von Creative-Commons-Quellen.
Mit anderen Worten: Der Megatron ist auf mehr schriftliches Material trainiert, als jeder von uns in seinem Leben vernünftigerweise verdauen kann. Nach einer so umfangreichen Recherche bildet er sich seine eigene Meinung.