.
Wie ließen sich Risiken ihres Befolgens reduzieren?
.
Bernhard Mosler
.
.
Marc Surman:
„Alle sind sich einig, dass KI eine mächtige Technologie ist. Und alle sind sich einig, dass es wie bei jeder mächtigen Technologie viele Chancen und Risiken gibt. Und alle sind sich einig, dass es eine Art von Regulation braucht. Was man derzeit jedoch beobachten kann, ist, dass vor allem die langfristigen Risiken hervorgehoben werden, die rein spekulativ sind. Rasch ist man dann bei der Idee, dass nur die großen Unternehmen mit einem geschlossenen Ansatz diese Risiken kontrollieren können.
Das ist meiner Ansicht nach sowohl naiv als auch gefährlich. Naiv, weil wir wissen, dass Risiken bestehen – egal ob die Technologie offen oder geschlossen ist. Und gefährlich, weil wenn man die Technologie nur einer Handvoll Akteuren überlässt, man also einen schmalen ‚point of failure‘ schafft. Wir benötigen jedoch die ganze Gesellschaft, die gesamte Wissenschaft und alle Regierungen, um KI zu verstehen, die Risiken zu identifizieren und sie zu entschärfen.“
„Der übertriebene Fokus auf die langfristigen, existenziellen Risiken von KI ist ein Ablenkungsmanöver“, sagt Marc Surman, der Kämpfer für ein freies Internet –
Interview mit Philipp Gollmer; Neue Zürcher Zeitung online, 10.11.2023
.
Um Risiken und Chancen im Sinne persönlicher Anliegen zu erkennen, die sich einem Menschen unmittelbar eindeutig zeigen, braucht er kein Hilfsmittel Künstlicher Intelligenz. Zu prüfen, inwieweit sich Künstliche Intelligenz zum Ermitteln von Chancen und Risiken hinsichtlich besonderer Anliegen in einer komplexen, unübersichtlichen Umgebung eignet, kann einem Menschen attraktiv erscheinen. Doch wie kann er sicher sein, dass eine bestimmte Verhaltensempfehlung Künstlicher Intelligenz zu befolgen seinen besonderen Anliegen mit übergroßer Wahrscheinlichkeit zuträglich wäre?
.
Angenommen, ein Mensch ist in seinen digitalen Recherchen zur Vorbereitung von Entscheidungen für bestimmtes Verhalten auf den Zugang zu disziplinär befüllten Informationsnetzen (Netzen der ersten Forschungsstruktur) beschränkt. Er möchte Chancen nutzen, die sich ihm aus dem Befolgen von künstlich intelligent erzeugten Verhaltensempfehlungen ergeben. Vor seiner Entscheidung für bestimmtes Verhalten möchte er einschätzen, wie verlässlich bestimmte künstlich intelligent generierte Verhaltensempfehlungen seine besonderen Anliegen unterstützen. Dieses Verlangen ist tendenziell umso stärker, je mehr für den Betreffenden bei einer Entscheidung auf dem Spiel steht. Doch je komplexer seine Daseinsbedingungen sind, umso wahrscheinlicher empfängt der in digitalen Informationsnetzen erster Struktur Recherchierende zu wenige Anhaltspunkte für die Verlässlichkeit künstlich intelligent erzeugter Verhaltensempfehlungen in seiner spezifischen Befindlichkeit, als dass er sich darauf einlassen möchte.
.
Dann könnte man darauf setzen, künstlich intelligente Verhaltensempfehlungen von zentraler Stelle aus risikomindernd zu reglementieren. Doch je komplexer Daseinsbedingungen von Menschen sind, je mehr verschiedene Konstellationen sich für die vielen Einzelnen ergeben, in denen sich der Einsatz Künstlicher Intelligenz für sie lohnen könnte, tendenziell umso mehr davon entgleitet einer risikomindernden Erfassung durch einheitliche Regeln für alle Anwendungen Künstlicher Intelligenz.
.
Je öfter man anschließend entdeckt, dass etwas in den allgemeinen Regeln zu Verhaltensempfehlungen Künstlicher Intelligenz gefehlt hat, und man darauf mit dem Erlass von immer detaillierteren Regeln reagiert, umso umfangreicher wird das Regelwerk. Umso eher verlieren diejenigen, die sich daran halten sollen, und schließlich auch die Autoren der Regeln den Überblick. Tendenziell umso eher entstehen Zweifel an der Praktikabilität und dem Nutzen des Regelswerks.
.
Man käme nicht umhin, dass jeder Einzelne, der künstlich intelligent erzeugte Verhaltensempfehlungen nutzen möchte, selbst die Fähigkeit erwerben müsste, von seiner einzigartigen Befindlichkeit aus hinreichend prüfen zu können, ob das Befolgen einer künstlich intelligent erzeugten Verhaltensempfehlung ein vertretbares oder zu großes Risiko für ihn bedeutete.
Angenommen, dazu eröffnete sich ein Weg und man schöpfte dieses Potenzial aus, dann mag sich noch ein zusätzlicher im Umfang erfüllbarer Bedarf an zentraler Koordination und regulierenden Eingriffen ergeben, um die Ergebnisse aus der Nutzung Künstlicher Intelligenz beim Vorbereiten von Entscheidungen für bestimmtes Verhalten im Sinne bestimmter Absichten weiter zu verbessern.
.
Der Zugang zum digitalen Informationsnetz zweiter Struktur erleichterte es dem Einzelnen zu prüfen, ob das Befolgen einer bestimmten, aus Künstlicher Intelligenz generierten Verhaltensempfehlung bestimmten Anliegen mit übergroßer Wahrscheinlichkeit entspräche, in der Wirkung unerheblich oder eher abträglich wäre.
Digital beschreibbaren Merkmalen bestimmter Anliegen eines Menschen stellte man im Netz zweiter Struktur eine bestimmte, von Künstlicher Intelligenz kreierte Verhaltensempfehlung gegenüber. Man fragte nach übereinstimmenden Merkmalen zwischen der Verhaltensempfehlung als Körper 1 und den besonderen Anliegen des Menschen als Körper 2, woraus ein voraussichtliches Verhaltenspotenzial zwischen Befolgen der Verhaltensempfehlung und Anliegen mit einem möglichen, eher nachteiligen oder eher vorteilhaften Ergebnis im Sinne der Anliegen gegebenenfalls erkennbar würde.
.
.
Schutz unserer Natur nachhaltig umfassend …