Die internationale Gemeinschaft sollte energisch und dringend an einem neuen Gesellschaftsvertrag arbeiten, um mit neuen Technologien und ihren disruptiven Potenzialen umzugehen. Dies betrifft insbesondere die künstliche Intelligenz (KI), die sicher und im Einklang mit einem global geteilten ethischen Standard eingesetzt werden muss.
Deepfakes, Dark Web, polarisierende Inhalte und Bot-Schwärme breiten sich im gesamten Cyberraum aus. Denken Sie nur an Ereignisse, die die westliche Hemisphäre noch immer erschüttern: Die US-Präsidentschaftswahlen 2016 und das Brexit-Votum sind nach wie vor von Kontroversen umgeben. Ihr Ergebnis wird häufig mit einem angeblichen Leck persönlicher Daten von einer weltweit führenden Social-Media-Plattform an eine Analyseagentur in Verbindung gebracht, um angeblich die Wahlentscheidungen der Wähler zu manipulieren. Auf der anderen Seite haben staatliche (und nichtstaatliche) Akteure enorme Mengen an Bewegungsverfolgungs- und Gesichtserkennungskameras eingesetzt, um kontinuierliche Ströme intimer Daten über Bürger zu kommerzialisieren, angeblich um sie auf ein Bonus-Malus-Verhaltensbewertungssystem vorzubereiten.
Die kühne und kommerziell vielversprechende Allianz zwischen KI und datenfizierter Gesellschaft hat den Großteil unserer gesellschaftlichen Aktivitäten bereits in den Cyberspace verlagert. Dessen neuen Herren gestalten damit bereits das eigentliche Gewebe unserer Realitäten um.
Es ist kein Wunder, dass unsere gemeinsamen Ängste steigen: Verlieren wir die Kontrolle über eine algorithmische Revolution von Nanorobotern? Entzieht sich die KI unseren traditionellen Formen des Verständnisses und kollektiven Handelns? Das Vertrauen in unsere nationale Regierungsführung und weltweite Vormundschaft steht kurz vor dem Zusammenbruch. Volksaufstände werden folgen.
Gleichzeitig neigen, die KI-gesteuerten Nano-, Geo-, Bio- und Info-Technologien dazu, globale und regionale Kontollen zu schwächen, anstatt sie zu stärken. Die UN und ähnliche multilaterale Foren sehen sich einer Vielzahl miteinander verbundener Herausforderungen gegenüber. Lassen Sie uns kurz einige davon erläutern.
Die KI und Deepfakes
Das sogenannte Deepfake ist ein gutes Beispiel. Fortschrittliche algorithmische KI-Programme haben derzeit die Stufe erreicht, in der sie Audio- und Videobilder problemlos ändern oder sogar herstellen können, indem sie Imitationen erstellen, die praktisch identisch mit dem Original sind. Deep-Learning-Gesichtserkennungsalgorithmen können bereits mit erstaunlicher Genauigkeit Augenbewegungen kopieren, verschiedene Gesichtsausdrücke nachverfolgen und simulieren oder Sprache synthetisieren, indem sie Atemmuster in Kombination mit der Bewegung von Zunge und Lippen analysieren.
Einmal von einem staatlichen oder nichtstaatlichen Akteur freigesetzt, könnten solche künstlichen Interventionen leicht bösartig für eine Vielzahl von Auswirkungen genutzt werden: politische Kampagnen, Erpressung, Gruppenzwang und erpresserisches Mobbing. Es ist nicht schwer vorstellbar, dass ein gefälschtes Video eine öffentliche Panik auslöst (z. B. wenn es nicht existierende Epidemien oder Cyberangriffe zeigt), Massendemonstrationen (z. B. wenn es eine hochrangige Amtsperson in einer Bestechungsszene oder einem ähnlichen schweren Verbrechen zeigt) oder gefälschte Sicherheitsvorfälle, die ernsthafte internationale Eskalationen provozieren könnten.
Die ständig wachsende Anzahl von Akteuren und ihre zunehmende Befähigung, Bürger mit manipulierten Simulationen zu beeinflussen, könnten langfristige schädliche Auswirkungen für die UN und andere internationale Organisationen haben, die sich mit Frieden und Sicherheit befassen. Indem sie die sehr Vorstellung von Wahrheit und gegenseitigem Vertrauen zwischen Bürgern und ihren Staaten sowie zwischen Staaten selbst untergraben, könnten Deepfakes zur größten disruptiven Kraft für unser globales Regierungssystem werden.
Die KI und die Vorhersehbarkeit des menschlichen Verhaltens
Aufgrund von Fortschritten im Internet der Dinge (IoT) verbindet sich die KI bereits mit einer Reihe anderer Technologien, insbesondere mit den Metadaten, die von der Biotechnologie bereitgestellt werden. Diese Fusionen stellen eine erhebliche Herausforderung für die globale Sicherheit dar.
Getrieben von lukrativen kommerziellen Aussichten oder staatlichen Sicherheitsüberlegungen sind die KI-Systeme auf der ganzen Welt weitgehend auf die Vorhersehbarkeit menschlichen Verhaltens programmiert. Sie verfügen bereits über genaue und schnelle Analysen von städtischen Verkehrsverhaltensweisen, Finanzmärkten, Verbraucherverhalten, Gesundheitsakten und sogar unseren Genomen.
Diese noch unregulierten KI-Technologien können unsere Verhaltens- und Biologiedaten auf neuartige und manipulative Weise kanalisieren, mit Auswirkungen auf uns alle. Auch die Jüngsten unter uns werden nicht verschont. Beispielsweise übertragen der i-Que-Boys-Roboter oder die Cayla-Girls-Puppe Sprach- und Emotionsdaten von Kindern, die mit ihnen interagieren (von allen in ihrem 10-Meter-Umkreis), und senden sie über die Cloud an ihre Hersteller zurück. Diese Funktion führte die europäischen Behörden dazu, automatisierte Spielzeuge genau zu überprüfen und zu dem Schluss zu kommen, dass sie gegen grundlegende Prinzipien des Verbraucher- und Datenschutzes verstoßen. Ähnliche Puppen werden immer noch in großem Umfang in der arabischen Welt und in Asien verwendet, wo das Bewusstsein für Verbraucherschutz weniger ausgeprägt oder weniger organisiert ist als in der EU.
In mehreren OECD-Ländern wird ernsthaft über den Einsatz von emotionalen Analysen in Gerichtssälen diskutiert. In einem solchen Szenario würde die leistungsstarke algorithmische Biometrie ein Maß an Reue messen, wenn Zeugen aussagen und Audio-Video-Materialien präsentiert werden. Wenn dies einmal einsatzbereit ist, könnte es leicht erweitert werden, indem Unternehmen (und staatliche) Einrichtungen verschiedene Arten von Biometrie zur Bewertung von Bewerbern für Arbeitsplätze verwenden.
Das könnte einige Ausgestoßene dazu verleiten, biometrische Armbänder auf einen Teil oder sogar die gesamte Bevölkerung zu zwingen und eine Echtzeit- und genaue Messung der Unterstützung zu erhalten, die sie genießen. (Solche Armbänder werden bereits in einigen OECD-Ländern für die Gefangenen, insbesondere für rekonvaleszente Häftlinge, die mit Bluttaten belastet sind, nachdrücklich befürwortet.)
Schließlich, wenn das individuelle oder Gruppenverhalten der Menschen überwacht, gesaugt, verarbeitet und daher verändert werden kann, wer (oder was) wird der Treiber der Wählbarkeit sein – sei es für einen Wechsel oder die Erhaltung des Status quo – Menschen oder Algorithmen?
Wenn die gesamte Biometrie, emotionale Daten und die vergangene Verhaltensgeschichte (Meta) aller Parlamentarier, aller Protagonisten politischer Parteien, der obersten Militärs und der wichtigsten Geschäftsleute von nationalen oder ausländischen staatlichen oder nichtstaatlichen Akteuren gehackt werden können – dann wird der Sinn für Demokratie, Militärangelegenheiten, Sicherheit und insbesondere Menschenrechte über alle Maßen verändert. Wahrscheinlich auch über eine Rückkehr hinaus.
Wenn die KI ein solches Potenzial hat, individuelles und kollektives menschliches Verhalten zu durchdringen – und sogar zu steuern -, untergräbt sie zwangsläufig den Begriff der Menschenrechte, wie er in der UN-Menschenrechtscharta verankert ist, sowie das friedliche Zusammenleben, die Sicherheit, den Wohlstand und die Gleichheit zwischen den Staaten, wie sie in der OUN-Charta festgelegt sind.
Neue Mittel der sozialen und biometrischen Kontrolle werden uns zwangsläufig dazu zwingen, den derzeitigen Rahmen zu überdenken und neu zu gestalten, um die Allgemeine Erklärung der Menschenrechte zu überwachen und umzusetzen. Auch die Vorstellung von Unabhängigkeit und dem unveräußerlichen Recht auf wirtschaftliche Entwicklung. Dies erfordert eine gemeinsame Anstrengung von regionalen Entwicklungsforschungsorganisationen und der UN als universelles multilaterales System, um dies vorherzusehen und anzupassen.
Die KI: Schauplatz zukünftiger Konflikte
Da sie aufgrund der Automatisierung Arbeitsplätze in ihrer Anzahl, Konfigurationen und Intensitäten reduziert, eignet sich die KI hervorragend für Länder im demografischen Übergang (Rückgang), eher als für die boomende Demografie der muslimischen Welt, Subsahara-Afrikas und des (nicht fernöstlichen) Asiens.
Der dramatische Rückgang in der Inlandsarbeitsvermutung und der bevorstehende Wandel in den globalen Fertigungsabhängigkeiten werden besonders den globalen Süden schwer treffen. Oft in der Haltung des „Abwartens und Beobachtens“ verwickelt, hat der Globale Süden traditionell ein geringes Vertrauensniveau zwischen seiner Bürgerschaft und der Regierung. Logischerweise ist das „Versprechen der KI“, große Regionen und ihre Bevölkerungen zu beeinflussen, so unmittelbar und faszinierend, dass es bereits seine Haupttreiber einem erbitterten Wettbewerb aussetzt. Beschleunigter Wettbewerb (mit solch einer disruptiven Technologie) in Abwesenheit von Zusammenarbeit (als bestes Mittel zum Aufbau und zur Aufrechterhaltung von Vertrauen) oder umfassender Regulierung ist nur einen Schritt von einem Konflikt entfernt.
Die SF-ähnlichen Aussichten auf das Beherrschen des „KI-Rennens“ werden daher (scheinbar) realistisch: Mächtige staatliche oder kommerzielle (Technologieplattformen) Akteure konkurrieren bitter um unsere kollektiven Daten – als neue Cyberwährung – um bio-medizinische, wirtschaftliche und politisch-militärische Vorherrschaft weltweit zu aggregieren. Die „Cyberkolonisierung“ – insbesondere des globalen Südens – wird immer wahrscheinlicher. (Daten saugen ohne jede Entschädigung und monetarisieren ohne jede Warnung, Datenerfassungsbesteuerung oder Entschädigung an ihren Eigentümer.) Die Führer im Bereich KI sind bereits in der Lage, global Daten zu saugen, besitzen Speicherkapazitäten und werden bald (Quanten-) Rechenleistungen beherrschen, um die Bevölkerungen und Ökosysteme anderer Länder zu verarbeiten, zu analysieren und potenziell zu kontrollieren.
Die Antwort auf KI sollte universell sein
Es ist ziemlich beunruhigend, dass unsere Gesellschaften weit davon entfernt sind, auf den Einsatz von KI vorbereitet zu sein: Sei es philosophisch oder praktisch, uns fehlen gründliche sozio-politische, rechtliche oder ethische Überlegungen. Darüber hinaus sind die UN und ihre Agenturen – vor 75 Jahren vor dem Aufkommen dieser Technologien konzipiert – in vielerlei Hinsicht schlecht ausgestattet, um umfassende und zeitnahe KI-Governance anzubieten. Die Geschwindigkeit dieses technologischen Innovationszyklus übertrifft jede administrative Antwort, selbst wenn die technologischen Störungen für eine immer größere Anzahl von Ländern offensichtlich werden. In naher Zukunft werden sie in zunehmend unvorhersehbaren Schweregraden und Frequenzen auftreten und in schwer zu verbindenden Kontexten.
Die neuen politischen Trends des autarken ‚Neo-Nationalismus‘ tragen dazu bei, dass multilaterale Organisationen ihre Kapazität zur Festlegung von Normen und zur Überwachung der Einhaltung in der globalen Governance von KI weiter trivialisiert wird.
In solch einem Klima könnten technologisch fortgeschrittene Mitgliedstaaten (unter Druck durch ihre nationalen Sicherheits- oder Wirtschaftsinteressen) wenig Anreiz sehen, internationale Organisationen das zu regeln, was sie als ihre lukrative und proprietäre Technologie betrachten. Daher könnten kollektive Entscheidungsmechanismen in dunkle, schwer zugängliche Zentren projizierter Macht sinken, außerhalb jeder Kontrolle. Mit all dem im Hinterkopf halten die UN und ihre spezialisierten Agenturen (einschließlich der ITU, UNESCO und UN-Universität) sowie verschiedene regionale Organisationen die Antwort. Dazu gehören insbesondere die Entwicklungssegmente – insbesondere des globalen Südens – wie die afrikanischen, asiatischen, interamerikanischen oder islamischen Entwicklungsbanken sowie regionale politisch-administrative Einrichtungen wie die OIC, SAARC, ASEAN, AU, um nur einige zu nennen. Sie müssen ihre Mitgliedsstaaten initiieren und lenken, aber auch dazu beitragen, die Welt durch die universalen Gremien der Vereinten Nationen zu steuern.
Die KI-Entwicklung ohne eine kollektive, kooperative Form der Governance zuzulassen, wäre ein doppelter unumkehrbarer Rückschlag: Eine disruptive Dual-Use-Technologie zusammen mit digitalem Eigentum würde an wenige Entfremdete übergeben, um sie zu regieren, während das Vertrauen in das multilaterale System (insbesondere in der Entwicklungswelt) weiter abnehmen würde.
Ein solches Nichthandeln würde zwangsläufig das Maß der planetaren Konfrontation auf unfassbare Proportionen erhöhen (einschließlich neuer Formen, bisher ungesehener), und das auf zwei Fronten – innerhalb der Gesellschaften und zwischen Staaten.
Einige würden alles tun, um zu dominieren und zu regieren, während andere alles tun würden, um der eisernen Faust von goo(g)lag zu entkommen.
Für die drei gravierendsten planetarischen Herausforderungen (Technologie, Ökologie, nukleare Vernichtung) benötigen wir einen genauen, gerechten und rechtzeitigen multilateralen Ansatz. In diesem Kampf um Relevanz hat jeder seinen eigenen Anteil an historischer (generationenübergreifender) Verantwortung.
Über den Autor: Anis H. Bajrektarevic ist Vorsitzender und Professor für internationales Recht und globale politische Studien in Wien, Österreich. Er hat acht Bücher für amerikanische und europäische Verlage verfasst und zahlreiche Artikel zu Geopolitik, Energie und Technologie veröffentlicht. Der Professor ist Herausgeber der in New York ansässigen Zeitschrift GHIR (Geopolitics, History and Intl. Relations) und Mitglied des Herausgebergremiums mehrerer ähnlicher Fachzeitschriften auf drei Kontinenten. Anfang dieses Jahres wurde sein neuntes Buch in New York veröffentlicht.
Dieser Text basiert auf dem Workshop für hochrangige Beamte der IsDB. Der Inhalt war 30 Monate lang gesperrt.
Der Text wurde uns vom „International Institute for Middle East and Balkan Studies (IFIMES)“ mit der freundlichen Bitte um Veröffentlichung zugesandt. Wir haben uns erlaubt, ihn ins Deutsche zu übersetzen. Alle Inhalte und Meinungen sind ausschließlich die des Autors.
Hinterlasse einen Kommentar