AIAE » E-LEARNING » INTERVIEW 4
Wahrnehmung von KI – KI und gesellschaftliche Herausforderungen
Die folgenden Interviewausschnitte wurden mit Pambos Pantziaros aufgenommen und befassen sich mit der Wahrnehmung von KI und gesellschaftlichen Herausforderungen, insbesondere mit Algorithmen und Vorurteilen in der KI.
Transkript
Nun, mein Name ist Bambos Papacharalambous. Die meiste Zeit meiner Karriere, sagen wir fast 30 Jahre, war ich hauptsächlich mit dem Telekommunikationsbereich des IT-Geschäfts befasst. Ich bin an einer Vielzahl von Projekten beteiligt, die mit der IT im Allgemeinen zu tun haben. Ich bin der CEO und Gründer von Novum. Novum ist ein Unternehmen, das Softwareentwicklung und IKT-Beratung anbietet.
Quiz question 1/8
Der Befragte, Bambos Papacharalambous, war hauptsächlich an einer Vielzahl von Projekten im Zusammenhang mit
Quiz question 1/1
You have completed the Quiz!
Transkript
Könnten Sie uns mehr über die Grundlagen von künstlicher Intelligenz, Algorithmen und kognitiven Vorurteilen erzählen?
Ja, okay. KI st ein weiteres Modewort unserer Zeit. Wenn wir also versuchen, herauszufinden, was KI wirklich bedeutet und wofür es steht, steht K für künstlich und I für Intelligenz. Künstlich bedeutet eine Maschine, etwas, das weder ein Mensch noch ein anderes Lebewesen ist. Intelligenz steht für den Denkprozess, der es uns ermöglicht, Sprache zu verstehen, die Umwelt um uns herum zu verstehen und Entscheidungen zu treffen. Eine der grundlegenden Vorstellungen von Intelligenz ist, dass wir etwas als intelligent ansehen, wenn es die Fähigkeit hat, sich Wissen anzueignen, d. h. etwas zu lernen, und dann in der Lage ist, das Gelernte anzuwenden, um akademische Entscheidungen zu treffen. Es mag unterschiedliche Definitionen dafür geben, was Intelligenz ist, aber gehen wir davon aus, dass das, was wir als Intelligenz definieren, die Fähigkeit ist, etwas zu lernen und das Gelernte dann in einer Form von Entscheidung anzuwenden. In der akademischen Welt wird Intelligenz besser verstanden und erforscht von Psycholog:innen, Soziolog:innen oder anderen akademischen Disziplinen. Aber künstliche Intelligenz wird besser von Informatiker:innen, Datenanalytiker:innen und Mathematiker:innen verstanden, zumindest heute. Der Grund dafür ist, dass wir über umfangreiche wissenschaftliche Disziplinen verfügen, um zu versuchen, Maschinen zu bauen, die diese grundlegende Bedeutung von Intelligenz irgendwie anwenden. So wie wir Menschen lernen, indem wir lesen oder unsere früheren Erfahrungen verarbeiten, sollte ein KI-System in der Lage sein, durch die Analyse vorhandener Datensätze zu lernen und zu versuchen, intelligente Aufgaben zu erfüllen. Nun muss man sich darüber im Klaren sein, dass KI-Algorithmen, wie alle anderen auch, von Menschen entwickelt werden und daher die gleichen Voreingenommenheiten und Beschränkungen aufweisen können wie das menschliche Denken, oder? So wie das Denken von Menschen durch kognitive Verzerrungen beeinträchtigt werden kann, kann auch die KI zu denselben verzerrten Entscheidungen gelangen. Nehmen wir also ein paar Beispiele für Vorurteile in Unternehmen, die derzeit von der Psychologie, sagen wir mal, der akademischen Welt, identifiziert werden, und nehmen wir zum Beispiel ein Fußballspiel: Unser Team wird heute Abend auf jeden Fall gewinnen, richtig? Wir haben unseren heutigen Gegner in den letzten 20 Jahren immer geschlagen, also können wir das heutige Spiel auf keinen Fall verlieren. Dies ist eine kognitive Verzerrung, die beim logischen Denken eines Menschen auftreten kann. Aber die gleiche kognitive Verzerrung kann auch bei einem KI-Algorithmus auftreten. Denn wenn die einzigen Informationen, mit denen wir unsere KI-Algorithmen füttern, die Informationen sind, dass unser Gegner in den letzten 20 Jahren gegen uns verloren hat, ist die Wahrscheinlichkeit groß, dass der KI-Algorithmus zu denselben Schlussfolgerungen kommt wie der Mensch. Egal, welche Informationen wir dem KI-Algorithmus geben, er wird versuchen, eine Antwort zu finden, aber nur auf der Grundlage der Informationen, die wir ihm geben. Wenn wir also versuchen, unserem KI-Algorithmus beizubringen, dass er, sagen wir mal, kluge Menschen durch die Analyse ihrer Gesichtsmerkmale identifizieren kann, dann füttern wir diesen Algorithmus mit Bildern junger weißer Männer und sagen ihm: “Okay, studiere diese Bilder. Und wenn wir dich dann fragen, wenn wir dir ein anderes neues Bild geben, sagst du uns, ob diese Person klug ist oder nicht. Könnte klug sein oder nicht.” Nun, wenn wir den Algorithmus nur mit Bildern junger weißer Männer gefüttert haben, ist die Wahrscheinlichkeit groß, dass dieser KI-Algorithmus, wenn wir ihm ein Bild einer älteren schwarzen Frau geben, dieselbe Voreingenommenheit hat und uns mit ziemlicher Sicherheit sagen wird, dass diese Frau nicht intelligent sein kann. Es ist also wichtig, sich darüber klar zu werden. Und es spielt keine Rolle, ob wir glauben, dass der Algorithmus magisch funktioniert. Er kommt im Grunde zu einer Antwort, die auf dem Umfang und der Qualität der von uns gelieferten Daten beruht. Das ist also, sagen wir mal, so ziemlich die Antwort auf die Frage, wie schlüssig Voreingenommenheit die KI beeinflussen kann und wie sie zu verzerrten Ergebnissen führen kann.
Quiz question 1/8
Was genau ist mit dem Begriff KI gemeint?
Quiz question 1/8
Was genau bedeutet Intelligenz im Zusammenhang mit dem Begriff KI?
Quiz question 1/8
Bisher wurde KI am meisten von folgenden Bereichen erforscht:
Quiz question 1/1
You have completed the Quiz!
Transkript
Könnten Sie nun auf die ethische Nutzung der künstlichen Intelligenz eingehen? Gibt es Anwendungen der künstlichen Intelligenz mit ethischen Bedenken?
Ja, natürlich. Da heutzutage immer mehr Maschinen immer komplexere Aufgaben übernehmen, denken die Menschen sofort an den Einsatz von Maschinen als Ersatz für menschliche Arbeit. Das ist das erste, was den Menschen in den Sinn kommt, und es ist eine berechtigte Sorge. Es sind dieselben Bedenken, die während der industriellen Revolution geäußert wurden, und heute sind sie wieder aktuell. Ist es schwierig, Maschinen bei der Weizenernte einzusetzen, anstatt sich auf die Hände der Menschen zu verlassen? Ist es schwierig, Robotern zu erlauben, menschliche Arbeiter:innen an den Fließbändern der Automobilindustrie zu ersetzen? Diese grundlegenden Fragen tauchen also wieder auf, aber jetzt in einem, sagen wir mal, komplexeren Umfeld, da die Maschinen sich weiterentwickelt haben und komplexere Aufgaben übernehmen. Wenn sich also die Menschen auf das neue Umfeld einstellen müssten, das durch die Maschinen in der Arbeitswelt geschaffen wurde, würden sie sehr bald einen weiteren Anpassungsprozess durchlaufen müssen. Wo würden zum Beispiel die Lkw-Fahrer:innen Arbeit finden, wenn die Lkw jetzt selbst fahren? Richtig. Wo würden die Busfahrer:innen eine Beschäftigung finden, wenn die Busse von KI-Software gesteuert werden? Wo würden Sie eine:n Flugzeugpiloten:in beschäftigen, wenn die Flugzeuge von selbst fliegen? Je komplexer die Aufgaben werden, die heute entwickelt und von Maschinen ausgeführt werden, desto mehr sind diese Arten von Arbeitsplätzen bedroht. Und es geht nicht mehr nur um körperliche Arbeit. Ich meine, warum sollte jemand Arzt:in werden, wenn ein Roboter dieselbe Operation besser durchführen kann als ein Mensch, oder? Diese Bedenken sind also berechtigt. Und natürlich gibt es noch andere Beispiele, die ethische Fragen beim Einsatz von KI in unserem Leben aufwerfen. Es geht nicht nur um die Arbeitskräfte. Sollten wir uns nicht auch Gedanken über den Einsatz von Maschinen machen, die zu unserer Sicherheit eingesetzt werden? Erstens: Können wir sicher sein, dass die KI-Software, die eine Sicherheitskamera in einem Flughafen antreibt, die richtige Entscheidung bei der Identifizierung der Terrorist:innen getroffen hat? Können wir sicher sein, dass das Sicherheitssystem in einem Einkaufszentrum den:die wahre:n Dieb:in zu seinem:ihrem Auto verfolgt und nicht irgendeine:n andere:n unschuldige:n Passant:in? Diese Fragen sind also berechtigt. Es gibt viele ethische Bedenken im Bereich der KI, nicht nur in Bereichen wie Beschäftigung oder Sicherheit, sondern auch bei der Verwendung von militärischen Waffen. Sollten wir uns nicht zum Beispiel Sorgen darüber machen, dass bewaffnete Drohnen heute unsere Kämpfe für uns übernehmen? Sind wir sicher, dass der autonome Robotersoldat von morgen in der Lage sein wird, zwischen Freund und Feind zu unterscheiden? Das sind also sehr berechtigte Sorgen. Und wann immer etwas Großes passiert, kommt es zu einem Wandel in der Industrie im Allgemeinen. Wann immer etwas Magisches geschieht, besteht auch die Möglichkeit, dass sich die Nutzung negativ auswirkt. Die Industrie muss also letztendlich einen Weg finden, KI zum Wohle der Gesellschaft, in der wir leben, einzusetzen.
Quiz question 1/8
Ein KI-System lernt, indem es Datensätze analysiert und versucht, auf die gleiche Weise wie Menschen intelligente Aufgaben zu erfüllen.
Quiz question 1/8
Da KI-Algorithmen von Menschen entwickelt werden, können sie die gleichen Vorurteile und Einschränkungen aufweisen.
Quiz question 1/8
Es ist nicht wichtig, ein Verständnis für kognitive Verzerrungen zu entwickeln.
Quiz question 1/8
Die Verzerrungen von KI-Algorithmen hängen von der Menge, der Art und der Qualität der Daten ab, die wir in das System einspeisen.
Quiz question 1/1
You have completed the Quiz!
Transkript
Sie haben bereits die Auswirkungen auf die künstliche Intelligenz, auf die Arbeitswelt, auf die Sicherheit, auf die Sozialhilfe und auf den Militärdienst erwähnt, und sie gelten auch für neue Gesetze für die Robotik in anderen Bereichen als dem von Ihnen erwähnten.
Ja, diese Frage der Regeln und Gesetze für die Robotik. Das ist kein leicht zu lösendes Problem. Wir befinden uns in einem unerschlossenen Gebiet, wenn es um ein allgemein akzeptiertes Regelwerk geht, das den ethischen Rahmen für die Arbeit von Robotern definieren soll, sogar in Bereichen außerhalb des Militärs, aber auch im Bereich der Sicherheit, im Bereich des Wohlergehens älterer Menschen, sagen wir im Bereich der persönlichen Sicherheit. Zu Hause werden wir Roboter sehen, die anfangen werden, Entscheidungen für uns zu treffen. Wie ich bereits sagte, handelt es sich hier um ein sehr neues Gebiet, und obwohl es sowohl in der Wissenschaft als auch in der Industrie und in den Regierungen Gruppen gibt, die sich mit diesen Regeln befassen, befindet sich dies noch in einem sehr frühen Stadium. Im Moment wird darüber diskutiert, was ein Roboter tun oder nicht tun sollte. Zum Beispiel sollte ein Roboter keinen anderen Menschen verletzen. Das könnte, sagen wir mal, eine primäre Richtlinie für eine Maschine sein. Gleichzeitig sollte ein Roboter aber auch seinem:seiner Besitzer:in und seinem:seiner Schöpfer:in gehorchen. Das ist also eine weitere Richtlinie, eine primäre Richtlinie für einen Roboter. Aber was ist, wenn der:die Besitzer:in des Roboters diesem Anweisungen gibt, die nicht zu seiner Hauptdirektive gehören? Was ist, wenn der Roboter aufgefordert wird, einem anderen Menschen zu schaden? Richtig, aber sollten wir den Umfang der Schädigung auf einen Menschen beschränken? Was ist, wenn der Roboter aufgefordert wird, einem Tier zu schaden? Oder was ist, wenn der Roboter einem anderen Roboter schaden soll? Was ist, wenn der Roboter einem Menschen Schaden zufügen muss, um einen anderen Menschen zu schützen? Dies sind also ethische Fragen, die nicht einfach zu beantworten sind. Und sie sind auch dann nicht einfach, wenn sie beantwortet wurden. Sie lassen sich nicht so einfach in einen Algorithmus einbauen. Vergessen Sie also nicht, dass all diese Regeln des Regelwerks letztendlich in eine mathematische, sagen wir mal, Gleichung übersetzt werden müssen. Richtig? Das ist also ein ziemlich schwieriges Unterfangen. Auch wenn es für die Menschheit besser wäre, diese Regeln vorher zu definieren und nicht erst im Nachhinein, glaube ich nicht, dass dies eine einfache Aufgabe ist. Unternehmen kämpfen auf globaler Ebene um die Vorherrschaft bei Produkten. Die Länder kämpfen wiederum um die militärische Vorherrschaft auf globaler Ebene. Es wäre also schwierig, Regeln aufzustellen, denen alle zustimmen und die dann von allen durchgesetzt werden können, weil die Gesellschaft und die Menschheit nun einmal so funktionieren. Ein wahrscheinlicheres Szenario wäre wohl, dass diese akzeptablen Regeln zumindest im Nachhinein festgelegt und durchgesetzt werden. Ich meine, nachdem wir gesehen haben, dass die chemische Kriegsführung während des Ersten Weltkriegs unethisch war, haben wir den Rahmen dafür geschaffen. Nachdem wir die Atombombe abgeworfen hatten, sahen wir ein, dass wir sie kontrollieren mussten. Wir müssen also vielleicht die erste, sagen wir, Katastrophe erleben, um gezwungen zu sein, die Regeln für das Verhalten des Roboters zu definieren. Wir hoffen einfach, dass diese Erfahrung der ersten Katastrophe kein sehr schlechter Schritt ist. Aber ich persönlich sehe, dass es zwar Versuche gibt, diese Regeln von Anfang an aufzustellen, aber ich glaube, dass dies eine sehr unpraktische Aufgabe ist.
Transkript
Gehen wir einen Schritt zurück und sehen wir uns an, was ein Algorithmus ist, ja? Und versuchen wir zu unterscheiden zwischen dem, was ein Algorithmus für Menschen tun kann, aber auch dem, was Menschen mit Hilfe von Algorithmen tun können. Bei einem normalen Algorithmus sind diese beiden, sagen wir mal, Aufgaben ziemlich gut zu unterscheiden. Was der Algorithmus für die Menschen tun kann, ist eine Sache. Was Menschen mit diesem Algorithmus tun können, ist eine andere Sache. Wenn also ein:e Informatiker:in einen Algorithmus schreibt, wird er:sie Sie auch nach den Regeln fragen, denen der Algorithmus gehorchen soll, richtig? Sagen wir also, Sie wollen einen Algorithmus, der, wenn Sie ihm das Volumen in Litern geben, das Volumen in Gallonen zurückgibt. Okay? Der:die Softwareentwickler:in wird also nach der Regel fragen, die diese Beziehung zwischen Liter und Kanonen regelt. Und er wird diese Regel verwenden, um diesen Algorithmus zu schreiben, so dass jeder das Ergebnis kennt, vorausgesetzt, der Algorithmus hält sich an diese Regeln und funktioniert korrekt. Okay? Das ist das, was ich einen regulären Algorithmus nennen würde. Wenn nun die Verwendung dieses Algorithmus Menschen in Schwierigkeiten bringen kann, dann ist nicht der Algorithmus schuld, sondern die Verwendung des Algorithmus ist schuld. Nehmen wir an, die von uns geschriebene Software wird in einem Flugzeug verwendet, und es gibt einen Schalter im Flugzeug, der sagt: Okay, wenn Sie den Schalter einschalten, kann ich Ihnen den Treibstoff in Gallonen anzeigen. Wenn Sie den Schalter ausschalten, kann ich Ihnen den Treibstoff in Litern anzeigen, den das Flugzeug in seinem Tank hat. Nehmen wir nun an, der Schalter ist in der falschen Position und der:die Piloten:in fragt nach Gallonen statt nach Litern und hebt ab. Nun, die Chancen stehen gut, dass er:sie vor seinem:ihrem ursprünglichen Ziel irgendwo anders eine Notlandung machen muss. Was tun Sie also? In diesem Fall? Sie haben einen Algorithmus, der korrekt funktioniert, aber seine Verwendung hat ihn zu einer Störung gemacht. In diesem Fall muss die Aufsichtsbehörde eingreifen, die Industrie muss eingreifen und die Pilot:innen richtig schulen. Man sorgt dafür, dass die Pilot:innen vor dem Start prüfen, ob das Flugzeug genug Treibstoff hat. Man erlässt Vorschriften, um den Betankungsdienst am Boden zu zwingen, dafür zu sorgen, dass das Flugzeug genug Treibstoff hat, um sein Ziel erreichen, so dass wir wissen, wie wir mit, sagen wir, all den regulatorischen Fragen umgehen müssen, die wir in einem regulären “Algorithmus” behandeln müssen. Was passiert nun mit dem KI-Algorithmus? Nehmen wir zum Beispiel einen Algorithmus für maschinelles Lernen. In diesem Fall entwerfen Sie den Algorithmus mit einigen grundlegenden Parametern und teilen dem Algorithmus mit, welche Daten Sie haben. Sie geben dem Algorithmus einfach eine Reihe von Daten und lassen ihn dann laufen. Der Unterschied bei dieser Art von Algorithmus besteht darin, dass sich das System auf der Grundlage der Parameter und der von Ihnen eingegebenen Daten selbst verändert. Man kann also das Ergebnis der Algorithmen nicht wirklich vorhersagen. Wenn ein Mensch genug Zeit hätte, die Daten, die Sie ihm gegeben haben, durchzugehen, die Parameter zu bestimmen und die Berechnungen Zeile für Zeile auf einem Blatt Papier durchzuführen, dann würden wir die gleichen Vorhersagen machen wie der Algorithmus. Aber es ist für einen Menschen unmöglich, diese große Datenmenge mit den Parametern, die Sie dem Algorithmus gegeben haben, durchzugehen. Letztendlich könnte das Ergebnis eines KI-Algorithmus also als unvorhersehbar gelten. Wir könnten ein Ergebnis erhalten, das wir nicht erwartet haben. Und das ist der Punkt, an dem die Ethik zum Einsatz kommen muss. Stellen Sie sich vor, Sie sind das Gesundheitsministerium eines Landes und bitten ein KI-Unternehmen um ein Ergebnis, das die demografischen Daten der Bevölkerung und die Zahl der verfügbaren Organspender:innen betrachtet. Und wir wollen, dass der Algorithmus vorschlägt, wer zum Beispiel eine Herztransplantation erhält und wer nicht. Man gibt also Dinge ein wie das Alter oder die Wahrscheinlichkeit, dass man, sagen wir mal, mit hoher Wahrscheinlichkeit einen Vorsorgeplan annimmt, und man gibt eine Reihe von Parametern ein, und dann gibt man alle demografischen Daten der Länder an diesen Algorithmus und lässt ihn laufen. Die ethischen Fragen müssen nun also von den Personen beantwortet werden, die den Algorithmus geschrieben haben, und nicht von den Personen, die ihn nur benutzen. Bei einem normalen Algorithmus hingegen können wir die Verantwortung für die Entscheidungsfindung den Menschen überlassen, die die Software nutzen. Wir setzen die KI-Version der maschinellen Lernen Version des Algorithmus ein. Nun, im Grunde genommen trifft der Algorithmus die Entscheidungen für uns. Deshalb müssen wir anfangen, darüber nachzudenken, ethische Regeln in die Algorithmen selbst einzubauen. Und wie wir bereits gesagt haben, ist das keine einfache Sache, denn wie entschlüsselt man all diese ethischen Antworten in eine mathematische Gleichung? Und dieser algorithmische Begriff ist ein neuer Raum. Er wird jetzt auf akademischer Ebene erforscht. Er berührt ein wenig die Industrie, aber er ist definitiv noch nicht so weit. Er braucht also noch Zeit.
Ja. Vielen Dank für diesen Beitrag über die Relevanz der Algorithmik.
Transkript
Jetzt kommen wir zu spezifischen Fragen über künstliche Intelligenz und soziale Herausforderungen. Können Sie uns mehr über unterstützte, erweiterte und autonome Intelligenz erzählen?
Ja. Okay, wie wir schon sagten, wenn wir zum Beispiel einen Roboter nehmen, der eine bestimmte Aufgabe erfüllt, dann wird der Roboter, der am Automobil-Fließband arbeitet, nicht wirklich als ein Roboter mit einem KI-Algorithmus in ihm betrachtet. Wir haben diese Roboter schon viele Jahre in der Industrie arbeiten sehen, bevor diese neue Welle von KI-Methoden populär wurde. Was passiert also in diesem Bereich? Nun, das ist eine Aufgabe, eine wiederholbare Aufgabe, eine Aufgabe, die leicht wiederholbar ist und die von der Industrie als harmloses Werkzeug akzeptiert wird. Die Vorteile einer solchen Maschine liegen darin, dass wir den Menschen diese arbeitsintensive Tätigkeit abnehmen und die langweiligen und ungesunden Aufgaben von Maschinen erledigen lassen und es den Menschen ermöglichen, in einer produktiveren und sichereren Umgebung zu arbeiten. Der Nachteil ist natürlich, dass dieser Roboter, den wir am Fließband haben, im Grunde genommen die Möglichkeiten der Menschen, die in der Lage und willens sind, diese Aufgaben zu erledigen, übernommen hat. Die Sache ist also, sagen wir, soweit akzeptiert, dass eine Maschine eine sich wiederholende Aufgabe der Handarbeit in einer bestimmten Branche übernimmt. Das Problem wird nun komplizierter, wenn man einen Roboter oder eine Maschine hat, die autonom Entscheidungen trifft und auf eine, sagen wir mal, “intelligente” Weise funktioniert. Stellen Sie sich also vor, Sie haben kein Fließband, sondern einen Roboter, der die Intelligenz hat, die Aufgaben auszuführen, die ein normaler Roboter heute ausführt, der aber auch entscheidet, dass das Design des eigentlichen Autos geändert werden muss. Nehmen wir an, der Roboter ist nun in der Lage, das Auto aerodynamischer zu gestalten, und er entscheidet selbständig, dass die Form des Autos geändert werden muss. Und natürlich hat der Roboter jetzt die Möglichkeit, die Designänderung vorzunehmen und gleichzeitig das Auto zu bauen. Okay, der Vorteil wäre, dass sie vielleicht ein besseres Design entwickeln und eine bessere Kraftstoffeffizienz bieten oder was auch immer. Aber der Nachteil ist, dass wir erstens ein paar Arbeitsplätze verdrängt haben. Wir haben vielleicht den:die Konstrukteur:in abgeschafft, aber gleichzeitig sind wir nicht sicher, ob diese Änderungen, die dieser neue Roboter jetzt vorschlägt, wirklich sicher sind. Ja, wir haben vielleicht eine bessere Effizienz, eine bessere Treibstoffeffizienz, aber wird es auch sicherer oder genauso sicher für den:die Fahrer:in und die Passagiere sein? Auch hier muss also alles in einem ausgewogenen Verhältnis stehen. Es gibt Vorteile, es gibt Nachteile, und deshalb gibt es auch Risiken, Gefahren und Herausforderungen. Aber gleichzeitig gibt es auch Chancen.
Transkript
Sie haben bereits einige Chancen, Risiken und Bedrohungen genannt. Was sind Ihrer Meinung nach die relevantesten sozialen Probleme?
Ich denke, was mir persönlich wirklich Sorgen macht, sind Dinge, die die Sicherheit der Menschen beeinträchtigen. Also Dinge wie der Arbeitsmarkt und die Arbeitsplätze. Ich denke, dass die Menschheit irgendwann ihren Weg finden wird, und wenn wir vorsichtig genug sind, können wir Antworten auf diese Probleme finden, weil die Technologie immer da sein wird. Wir haben das schon einmal durchgemacht, und ich bin zuversichtlich, dass wir auf die eine oder andere Weise eine Antwort auf diese Fragen finden werden. Wenn es um Dinge wie Sicherheit geht, ist die Sicherheit der Menschen eines der am schwierigsten zu lösenden Probleme. Und ich denke, dass wir diesem Punkt mehr Aufmerksamkeit schenken sollten. Was passiert zum Beispiel, wenn wir einen Virus in einem Auto haben und dieses Auto nun jeden Tag meine Mutter zum Einkaufen fährt? Was passiert, wenn diese Software von einer terroristischen Organisation entwendet wird? Was passiert, wenn die Software nicht richtig getestet wurde? Und dann passiert etwas während der Fahrt meiner Mutter zum Lebensmittelgeschäft und wir haben einen Unfall. Die gleiche Art von Problemen, die die Sicherheit der Menschen beeinträchtigt. Natürlich multipliziert sich das Ganze um das Tausendfache, wenn wir uns mit dem Einsatz von Maschinen in der Kriegsführung befassen. So haben wir jetzt Drohnen, die von einem Haufen Joysticks gesteuert werden, der sich auf der anderen Seite der Welt befindet. Und diese Drohne wird nun von einem:einer Piloten:in geflogen. Und der:die Pilot:in trifft die Entscheidung, wo sie ihre Bomben abwerfen soll. Was passiert nun, wenn diese Drohne die Erlaubnis erhält, selbst zu entscheiden? Wie kann man diese ethischen Fragen an die Software der Drohne weitergeben? Es sind die gleichen Probleme, mit denen die Kriegsführung jedes Mal konfrontiert wurde, wenn ein neues Mobiltelefon für die breite Masse verfügbar wurde. Diese Art von Entscheidungen, die sich auf die Sicherheit und das Wohlergehen der Menschen auswirken, sind meiner Meinung nach die wichtigsten Bereiche, die untersucht werden müssen. Und es sind wahrscheinlich die heißesten Bereiche, die wir finanzieren können.
Transkript
Und Sie haben bereits einige Beispiele aus verschiedenen Bereichen vorgestellt. Könnten Sie uns vielleicht noch ein paar weitere Beispiele aus den Bereichen Gesichtserkennung, Justiz und soziale Netzwerke nennen?
Ja, die Gesichtserkennung ist ein Problem, das in den letzten Jahren immer wieder aufgeworfen wurde. Man könnte sagen, dass es direkt damit begann, dass Lösungen im Bereich der Sicherheit gefunden werden mussten, aber es hat sich herausgestellt, dass es jetzt in allen verschiedenen Branchen, rund um die Technologie, auftritt. Nehmen wir die Industrie. Nehmen wir zum Beispiel an, wir trainieren ein System, um eine Kamera am Eingang eines Einkaufszentrums zu verwenden, und wir wollen sehen, ob die Person, die das Einkaufszentrum betritt, COVID hat oder nicht, richtig? COVID 19 ist ein sehr aktuelles Thema. Nehmen wir an, wir haben eine Art System, das sich das Gesicht ansieht, und wenn wir die Algorithmen gefunden haben, die zusammen mit anderen Sensoren und Daten identifizieren arbeiten, können wir feststellen, ob diese Person vielleicht COVID hat. Nehmen wir also an, dass wir eine Person identifizieren, die COVID hat. Ein guter nächster Schritt wäre: “Okay, mal sehen, lass uns die KI-Gesichtserkennung nutzen und herausfinden, wer diese Person ist. Gehen wir zu Facebook oder einer anderen sozialen Plattform, identifizieren wir diese Person und sehen wir uns dann die Bilder an, die diese Person auf den verschiedenen Social-Media-Plattformen gepostet hat, und sehen wir, wer die Freunde dieser Person sind. Und vielleicht müssen wir sie erreichen, um herauszufinden, ob sie sich getroffen haben, und das könnte der Fall sein. Sie sind jetzt verdächtig, ein positives COVID-19-Testergebnis zu haben. Wo können wir das also stoppen? Richtig? Wo setzen wir dem ein Ende? Wenn wir Regeln haben, die mit persönlichen Daten und der Sicherheit von Daten zu tun haben, nun, vielleicht müssen diese Regeln wegen einer Pandemie beiseite geschoben werden. Lassen wir also die Algorithmen all diese Arbeit für uns erledigen, ohne jegliche Kontrolle? Aber die Tatsache, dass Algorithmen eigenständig Entscheidungen treffen können, schafft diese Unsicherheit für uns. Und deshalb stehen die Menschen dem zu Recht skeptisch gegenüber.
Transkript
Könnten Sie uns nun etwas mehr über den Status und die Perspektive einiger Vorschriften sagen? Zum Beispiel OECD oder EU UNESCO GPAI.
Ja, wie ich schon sagte, es gibt Initiativen und kluge Leute, die Zeit damit verbringen, einen Rahmen für den Einsatz von KI zu schaffen. Es gibt auch Forschungen zu ethischen Fragen, die nicht von staatlichen Stellen durchgeführt werden. Aber wie wir bereits sagten, befinden sich diese Arbeiten in einem sehr frühen Stadium, und ich habe das Gefühl, dass die Branche den Regulierungsbehörden wieder einmal voraus sein wird. Wenn Sie einen Blick auf die Forschung werfen, die derzeit mit Unternehmen im Bereich der Robotik durchgeführt wird, werden Sie zu demselben Aha-Erlebnis kommen, wie wenn Sie sehen, was Roboter heute leisten. Und ich habe das Gefühl, dass die Industrie dem regulatorischen Rahmen bereits voraus ist, und es wird sich höchstwahrscheinlich ein weiteres Szenario wiederholen, bei dem erst etwas Schlimmes passieren muss, damit alle positiv reagieren. So wie sich die Dinge entwickeln, sehe ich keinen Grund, warum die KI anders behandelt werden sollte. Ich denke, die Industrie wird sich mit unglaublicher Geschwindigkeit weiterentwickeln und die Regulierungsbehörden und Regierungen werden einen Schritt hinterher sein. Das ist, glaube ich, der derzeitige Trend, und ich glaube nicht, dass sich daran etwas ändern wird.
Ich danke Ihnen vielmals. Möchten Sie noch etwas zu diesem Thema hinzufügen?
Nein, ich denke, die Frage der Ethik in der KI… Man könnte sagen, dass dies eine berechtigte Frage ist. Es ist eine Frage, die von Gesellschaften auf der ganzen Welt gestellt wird. Ich glaube auch, dass die Industrie das entwerfen und umsetzen wird, was sie für ihre Produzenten für das Beste hält. Ich glaube nicht, dass man das irgendwie aufhalten kann. Ich hoffe nur, dass die Ergebnisse dieser KI-Initiativen letztendlich der Menschheit zugute kommen und nicht all die Probleme verursachen, vor denen wir uns fürchten. Letztendlich wird die Menschheit ihren Weg finden, aber ich denke, es wird ein holpriger Weg sein.