.
Bernhard Mosler
.
Weshalb auch bei Verfügbarkeit künstlicher Intelligenz
persönliche Urteilsfähigkeit nicht vernachlässigt werden darf
.
.
.
„Künstliche Intelligenz“ zu nutzen und diesbezüglich weitere Anwendungsfelder zu erschließen, kann aus vielen Gründen attraktiv erscheinen.
Angenommen, es würde weiterhin nur die erste Forschungsstruktur mit entsprechend inhaltlich befüllten digitalen Informationsnetzen zur Verfügung stehen. Der Aufbau der zweiten Forschungsstruktur mit dem ihr entsprechenden digitalen Informationsnetz unterbliebe. Dann könnten die vielen an die digitale Welt angeschlossenen Menschen in ihrer Eigenschaft als Laien ihre persönliche Kompetenz im Umgang mit komplexen Daseinsbedingungen nicht mit dem digitalen Informationsnetz zweiter Struktur erhöhen. Sie würden in ihrem Verhalten tendenziell häufiger als mit dem Erwerb der umfänglicheren Verhaltenskompetenz ihre jeweiligen Absichten verfehlen. Nähme die Komplexität weiter zu, würden die Resultate von Verhalten für die Einzelnen eher noch unbefriedigender. Angenommen, damit wollte man sich nicht abfinden. Als Antwort darauf würde jedem Menschen von Geburt an ein Instrument künstlicher Intelligenz zur Seite gestellt, das ihm unter Berücksichtigung einiger digital einstellbarer persönlicher Wünsche vorgibt, wie er sich verhalten soll. Wie dieses Instrument seine Entscheidungen trifft, in welchen Maßen es über die voreingestellten Wünsche hinaus Anliegen des Befehlsempfängers mitberücksichtigt, würden einige wenige Personen bestimmen, die sich für vorbildlich halten, oder disziplinärwissenschaftlich vorgebildete und interdisziplinär zusammenarbeitende Experten. Allerdings wären auch diese Personen auf fast allen Gebieten fachspezifische Laien. Die persönliche Kompetenz zum Beurteilen einer spezifisch komplexen lebensweltlichen Situation und Entwicklung derjenigen, die im Verbund mit dem Instrument künstlicher Intelligenz anderen Menschen Befehle zu bestimmtem Verhalten gäben, wäre nur in ausgeschnittenen Aspekten oder überhaupt nicht größer als die entsprechende persönliche Kompetenz derjenigen, die Befehle des mit künstlicher Intelligenz ausgestatteten Instrumentes befolgten. Dennoch käme den ersteren die Macht zu, für andere teilweise willkürlich zu bestimmen, was die künstliche Intelligenz in ihren Entscheidungen mitberücksichtigt.
.
.
2
Einmal angenommen, ein Mensch befolgte die Anweisungen, die ihm das Instrument künstlicher Intelligenz erteilt, weil er sich nichts Vorteilhafteres vorzustellen vermag. Er wäre sich im klaren darüber, dass er ohne den mit künstlicher Intelligenz ausgestatteten Assistenten in der Unübersichtlichkeit seiner gegebenen Verhältnisse schnell nicht weiter wissen und dann ziemlich kopflos umherirren würde. Denn in selbstständigem Denken und Beurteilen seiner Lage hat er wenig Erfahrung. Doch mit diesem so weitgehenden Abhängigsein von dem Lotsen mit der künstlichen Intelligenz ginge ein existenzbedrohendes Risiko für den Menschen einher. Denn ganz gleich, wieviele in irgendwelchen Hinsichten nützliche Dienste von Instrumenten künstlicher Intelligenz in Zukunft möglich werden, müssten Menschen immer darauf Einfluss nehmen können, um sich notfalls vor existenziell bedeutsamem Schaden durch künstliche Intelligenz bis hin zum Verlust ihrer Existenz zu schützen. Überdies kann niemand für die Zukunft ein Naturereignis ausschließen, das von Menschen genutzte Geräte, die sich durch künstliche Intelligenz auszeichnen, in ihren Funktionsfähigkeiten beeinträchtigt oder vernichtet. Zudem wird es aller Voraussicht nach weiterhin Konflikte zwischen Menschen und Gruppen geben, in deren Verlauf die eine Seite der anderen zu schaden versucht. Möglicherweise würden dabei irgendwann auch Instrumente künstlicher Intelligenz beschädigt oder zerstört werden. Deshalb müssen die vielen einzelnen Menschen ihre Existenzen zumindest mit Blick auf mögliche Notfälle auch ohne künstliche Intelligenz sichern können.
.
.
3
Um ihr existenzielles Risiko niedrig zu halten, brauchen die vielen Einzelnen ständig genug Kompetenz, auch ohne Nutzung künstlicher Intelligenz im eigenen Kopf Entscheidungen in für ihre persönliche Existenz maßgeblichen Angelegenheiten treffen zu können. Sie müssen in der Lage sein, die Notwendigkeit zu begreifen, digitalfreie Parallelstrukturen aufrechtzuerhalten, um nach einem digitalen Versagen noch ihre persönlichen Existenzen sichern zu können. Sie müssen fähig sein zu beurteilen, in welchen Belangen sich der Aufwand für Parallelstrukturen lohnt, und wann sie sich günstiger ganz auf eine digitalfreie Struktur beschränken.
.
.
4
Je mehr Menschen weltweit das digitale Informationsnetz zweiter Struktur für Recherchen zur Vorbereitung von Entscheidungen unter komplexen Daseinsbedingungen nutzen würden, eine tendenziell umso höhere Qualität könnten die Informationen erreichen, die ein in dem Netz Recherchierender auf seine Anfragen hin empfangen kann. Je mehr ein Mensch das Netz zweiter Struktur für Recherchen zur Vorbereitung von Entscheidungen für bestimmtes Verhalten nutzen würde, umso umfänglicher beurteilte er seine Lage im eigenen Kopf. Umso geübter würde er in dieser Fähigkeit. Tendenziell umso fähiger wäre er, sich nach einem Zusammenbruch von ihm genutzter Instrumente künstlicher Intelligenz, auch nach Ausfall des Netzes zweiter Struktur mit Überlegungen im eigenen Kopf zu behaupten.
.
.
.
Künstlich intelligent erzeugte Verhaltensempfehlungen