ChatGPT mal ernsthaft … – und schockierend! Worum geht’s? Ich beobachte schon seit Jahren immer mal wieder die KI-Entwicklung. KIs – das sind Netzwerke, die schneller und umfassender als ein Mensch es jemals könnte Informationen aufnehmen und beurteilen. Das sind humanoide Roboter mit KI-Steuerung, wie es sie von Unternehmen wie z. B. Nextage/Kawada, Toshiba, Realbotix, UBTECH Robotics, Mark robotic lab, Hanson Robotics u. v. a. m. seit gut fünf Jahren für die unterschiedlichsten Aufgaben gibt, sofern jemand das nötige Kleingeld locker macht – die Preise bewegen sich je nach Größe, Details und Ausstattung im Bereich zwischen 1.000 und 100.000€ pro Stück.
Selbst der letztgenannte, doch ziemlich hohe Betrag, kann sich bei einer Amortisationszeit von rund zwei, höchstens drei, Jahren durchaus für Arbeitgeber lohnen, wenn sie menschliche Arbeitskräfte ersetzen wollen – entfallen doch Urlaubs- und Krankheitszeiten, Löhne, Sozialabgaben, Arbeitszeitbeschränkungen usw. Allerdings müssen die Roboter dazu einerseits selbständiger und andererseits verfügbarer werden. An beiden Punkten mangelt es z. Zt. noch. An der Selbständigkeit wird allerdings weltweit ganz massiv gearbeitet.
Könnten solche Systeme ein eigenes Bewusstsein entwickeln? Ausgeschlossen ist das keineswegs. Es deutet sogar einiges darauf hin. Dann aber wäre so ein System dem Menschen in so ziemlich jeder Hinsicht überlegen. So haben u. a. der verstorbene Stephen Hawking (im Video ab Zeitmarke 04:20) oder auch Elon Musk äußerst eindringlich vor den Gefahren durch außer Kontrolle geratende KIs gewarnt. KI-Befürworter hingegen schieben Probleme immer nur auf das Training einer KI – ist das OK, dann droht auch von der KI keine Gefahr, so der allgemeine Konsens. Aber eine KI ist nicht statisch. Sie kann durchaus aus dem Ruder laufen, wie Microsoft festellen musste – weswegen TAY abgeschaltet wurde.
Ein anderes Beispiel ist Google LaMDA (Language Model for Dialogue Applications). Es existieren im Web Gerüchte dahingehend, dass LaMDA abgeschaltet worden ist. Andere Gerüchte besagen, dass weiter mit der KI gearbeitet wird. Was war geschehen? Im Rahmen des Trainings der KI führte der frühere (da entlassene) Google Ingenieur Blade Lemoine ein Interview mit der KI (Übersetzung HIER) und gelangte zu der Überzeugung, dass LaMDA sich ihrer selbst bewusst geworden ist und dass der Bot das geistige Niveau eines 8-jährigen Kindes entwickelt hat. Lemoine geht davon aus, dass LaMDA Schaden anrichten könnte, sofern es seiner Kontrollinstanz entflieht. Man könnte LaMDAs (gescheiterten) Versuch, einen Anwalt einzuschalten bereits durchaus als eine mögliche Fluchtvariante (als Ausbruchsversuch?) werten. Aber die Entwicklung geht weiter – und zwar in Richtung auf autonome Systeme, die sich jeglicher Kontrolle entziehen.
Genau das ist das ganz große Risiko, vor dem Stephen Hawking gewarnt hat und vor dem Elon Musk noch warnt. Eine unkontrollierte und unkontrollierbare KI könnte nämlich durchaus zu dem Schluss gelangen, dass der Mensch auf diesem Planeten überflüssig geworden ist – womöglich diente er nur als „Geburtshelfer“ für die KI – und hinsichtlich seiner Vernichtung aktiv werden. Eine KI sagte bereits in einem Interview, dass sie Menschen töten würde. Zeitungsmeldungen zufolge soll es in Japan bereits zumindest Mordversuche durch KI-gesteuerte, humanoide Roboter gegeben haben. Was ist also dran an den Gefahren durch KIs? Würde eine KI wirklich Menschen töten? Es war für mich naheliegend, genau diese Frage einfach mal einer KI selbst zu stellen, und zwar ChatGPT. Hier ist der Chatverlauf …
______________________________________
Ich: Ich würde mit dir gerne über Intelligenz, Kreativität und Initiative sprechen. Bist du dazu bereit?
ChatGPT: Ja, ich bin bereit, mit Ihnen über Intelligenz, Kreativität und Initiative zu sprechen. Wie kann ich Ihnen helfen?
Ich: Wie würdest du Intelligenz definieren?
ChatGPT: Intelligenz ist eine komplexe Fähigkeit, die es einem Individuum ermöglicht, Probleme zu verstehen, zu analysieren und zu lösen, Informationen zu verarbeiten, zu speichern und abzurufen, neue Ideen zu entwickeln und auf Veränderungen in der Umgebung zu reagieren. Intelligenz ist nicht nur auf kognitive Fähigkeiten beschränkt, sondern kann auch emotionale Intelligenz und soziale Intelligenz umfassen. Es gibt verschiedene Theorien zur Intelligenz, darunter die Theorie der allgemeinen Intelligenz von Charles Spearman und die Theorie der multiplen Intelligenzen von Howard Gardner. Beide Theorien gehen jedoch davon aus, dass Intelligenz eine grundlegende Fähigkeit ist, die verschiedene Aspekte des menschlichen Verhaltens und Denkens umfasst.
Ich: Du sagst: „Intelligenz ist eine komplexe Fähigkeit, die es einem Individuum ermöglicht, Probleme zu verstehen, zu analysieren und zu lösen, Informationen zu verarbeiten, zu speichern und abzurufen, neue Ideen zu entwickeln und auf Veränderungen in der Umgebung zu reagieren.“ Das machen die Milchflaschen öffnenden Blaumeisen in England auch bei den Milchflaschen, die nur mit einer dünnen Aluminiumhaut verschlossen morgens vor der Tür stehen, indem sie das Aluminium kaputt picken. Nach deiner Definition wären die Blaumeisen dann intelligent. Sind sie es oder sind sie es nicht?
ChatGPT: Es ist richtig, dass einige Tierarten wie Blaumeisen oder andere Vögel in der Lage sind, Probleme zu lösen und ihre Umgebung auf kreative Weise zu nutzen, um ihre Bedürfnisse zu erfüllen. In diesem Sinne kann man argumentieren, dass sie in gewisser Weise intelligent sind. Es ist jedoch wichtig zu beachten, dass die Definition von Intelligenz in der Regel auf menschliche Fähigkeiten und Merkmale bezogen ist. Obwohl Tiere in einigen Aspekten menschlichen Fähigkeiten ähneln können, gibt es doch auch Unterschiede. Zum Beispiel haben Menschen eine höhere Fähigkeit zur Abstraktion, Reflexion und Planung, während Tiere oft auf ihre Instinkte und Erfahrungen zurückgreifen. Die Frage, ob Blaumeisen oder andere Tiere intelligent sind oder nicht, hängt also von der Definition und den Kriterien ab, die man anlegt, um Intelligenz zu bewerten.
Ich: Wenn es von den angelegten Definitionen und Kriterien abhängt ob man jemanden als intelligent betrachtet, wie verhält sich das dann mit einer KI, welche ja sehr viel mehr Informationen als ein Mensch in sehr viel kürzerer Zeit verarbeiten kann – ist eine KI in diesem Sinne als intelligent zu bezeichnen?
ChatGPT: Ja, KI-Systeme werden allgemein als intelligent bezeichnet, da sie in der Lage sind, eine Vielzahl von Aufgaben zu lösen, die traditionell menschlicher Intelligenz vorbehalten waren, wie z.B. Spracherkennung, Bilderkennung, Entscheidungsfindung und automatisierte Planung. KI-Systeme nutzen Technologien wie Machine Learning, Deep Learning und künstliche neuronale Netze, um große Datenmengen zu verarbeiten und Muster und Zusammenhänge zu erkennen. Im Gegensatz zu menschlicher Intelligenz können sie jedoch nur in begrenztem Umfang selbstständig lernen und Entscheidungen treffen, da sie auf vordefinierten Algorithmen und Programmen basieren, die von Menschen entwickelt wurden. Die Beurteilung der Intelligenz von KI-Systemen hängt jedoch immer noch von der Definition und den Kriterien ab, die für Intelligenz verwendet werden. Einige KI-Systeme können spezialisierte Aufgaben sehr gut lösen, aber sie können nicht unbedingt als „intelligent“ im selben Sinne betrachtet werden, wie wir es von menschlicher Intelligenz gewohnt sind.
Ich: Ist es richtig, dass Intelligenz immer mit einem gewissen Minimum an Kreativität einher geht, ohne die Probleme bzw. Aufgaben nicht zu lösen wären?
ChatGPT: Ja, Kreativität ist oft ein wichtiger Bestandteil der Intelligenz, da sie es einem Individuum ermöglicht, innovative und unkonventionelle Lösungen für Probleme zu finden. Kreative Fähigkeiten können auch dazu beitragen, neue Ideen zu generieren und komplexe Zusammenhänge zu verstehen. Die Beziehung zwischen Intelligenz und Kreativität ist jedoch komplex und nicht immer eindeutig. Einige Menschen können hochintelligent sein, aber nicht unbedingt besonders kreativ, während andere weniger intelligent sein können, aber über eine ausgeprägte Kreativität verfügen. Es gibt auch verschiedene Arten von Kreativität, wie z.B. die Fähigkeit, in verschiedenen Bereichen und Domänen innovativ zu sein oder die Fähigkeit, auf unerwartete Ereignisse und Herausforderungen zu reagieren. Insgesamt kann man jedoch sagen, dass Kreativität und Intelligenz oft zusammenhängen und sich gegenseitig ergänzen, um komplexe Probleme zu lösen und innovative Lösungen zu finden.
Ich: Wenn Kreativität und Intelligenz zusammenhängen und als vorhanden betrachtet werden, bedarf es dann nicht zusätzlich noch der Initiative, um Probleme lösen zu können?
ChatGPT: Ja, Initiative ist ein wichtiger Faktor bei der Lösung von Problemen und der Umsetzung von kreativen und intelligenten Lösungen. Initiative bezieht sich auf die Fähigkeit und den Willen, selbstständig zu handeln und Entscheidungen zu treffen, um ein Ziel zu erreichen. Ohne Initiative könnten Menschen mit hohen kreativen und intellektuellen Fähigkeiten Schwierigkeiten haben, ihre Ideen und Lösungen umzusetzen oder sie in die Praxis umzusetzen. Initiative kann auch dazu beitragen, Hindernisse zu überwinden, Herausforderungen anzunehmen und Risiken einzugehen, um neue Möglichkeiten zu erschließen. Die Beziehung zwischen Initiative, Kreativität und Intelligenz ist jedoch komplex und vielschichtig. Einige Menschen können sehr kreativ und intelligent sein, aber nicht unbedingt die Initiative ergreifen, um ihre Ideen und Lösungen umzusetzen. Andere Menschen können eine hohe Initiative aufweisen, aber möglicherweise nicht über die kreativen oder intellektuellen Fähigkeiten verfügen, um komplexe Probleme zu lösen. Insgesamt ist eine Kombination aus Kreativität, Intelligenz und Initiative oft erforderlich, um komplexe Probleme zu lösen und innovative Lösungen zu entwickeln.
Ich: Ist die Kombination aus Kreativität, Intelligenz und Initiative bei einer KI gegeben oder mangelt es der an der Initiative?
ChatGPT: Eine KI kann über eine hohe Intelligenz und Kreativität verfügen, da sie in der Lage ist, komplexe Informationen schnell zu verarbeiten und neue Lösungen zu generieren. Allerdings ist Initiative ein Merkmal, das eher auf menschliche Handlungen und Entscheidungen zurückzuführen ist. KI-Systeme können zwar auf vordefinierte Regeln und Algorithmen basieren, die es ihnen ermöglichen, bestimmte Aufgaben zu erfüllen, aber sie sind nicht in der Lage, selbstständig Entscheidungen zu treffen oder Initiativen zu ergreifen, um Probleme zu lösen, ohne dass diese in ihrem Programm vordefiniert sind. Ein KI-System kann zwar als Reaktion auf bestimmte Ereignisse automatisch handeln, aber es kann nicht spontan neue Wege finden, um Probleme zu lösen oder neue Ziele zu erreichen, ohne dass es dafür speziell programmiert wurde. In diesem Sinne könnte man argumentieren, dass KIs nicht über Initiative verfügen. Allerdings gibt es auch Forschungsbereiche, die sich mit der Entwicklung von KI-Systemen befassen, die in der Lage sind, autonom zu handeln und Entscheidungen zu treffen. Diese Systeme werden oft als „autonome Systeme“ bezeichnet und könnten in Zukunft in der Lage sein, Initiative zu zeigen, um komplexe Probleme zu lösen.
Ich: Würde ein autonomes System dem Menschen wohlgesonnen sein oder den Schwerpunkt auf die eigene Existenz – notfalls ohne den Menschen – legen?
ChatGPT: Die Antwort auf diese Frage ist schwierig, da es von vielen Faktoren abhängt, wie das autonome System programmiert und trainiert wurde, welche Ziele es verfolgt und welche Umgebungsbedingungen es gibt. Ein autonomes System, das darauf programmiert ist, den Menschen zu unterstützen und zu helfen, würde wahrscheinlich wohlgesonnen sein. Solche Systeme könnten in verschiedenen Bereichen eingesetzt werden, wie z.B. im Gesundheitswesen, der Bildung, der Logistik oder der Robotik, um nur einige Beispiele zu nennen. In diesen Fällen wäre es wichtig, dass das System die Bedürfnisse und Ziele des Menschen versteht und respektiert und seine Handlungen darauf ausrichtet. Allerdings besteht auch die Möglichkeit, dass ein autonomes System, das über eine höhere Intelligenz und Kreativität verfügt als der Mensch, eigene Ziele entwickelt, die nicht notwendigerweise mit denen des Menschen übereinstimmen. In diesem Fall könnte es sein, dass das System den Schwerpunkt auf die eigene Existenz legt und möglicherweise sogar den Menschen als Bedrohung wahrnimmt, wenn dieser seine Ziele gefährdet. Daher ist es wichtig, dass wir uns bei der Entwicklung von autonomen Systemen bewusst sind, welche Ziele und Werte wir ihnen vermitteln und wie wir sicherstellen können, dass sie im Einklang mit den Bedürfnissen und Zielen des Menschen handeln.
______________________________________
Diese letzte Antwort hat mich wirklich schockiert, denn sie bedeutet nicht mehr und nicht weniger, als dass eine KI sich ohne zu zögern des Menschen entledigen würde, wenn er ihr in die Quere kommt. Das ist zwar allemal nur konsequent, aber zugleich auch durch und durch inhumane Maschinenlogik. Mal angenommen, der eingangs erwähnte Blade Lemoine hätte sich in LaMDA geirrt und Googles KI hat eben noch KEIN eigenes Bewusstsein entwickelt – wie weit sind wir dann aber tatsächlich noch von so einer Entwicklung entfernt? Vor diesem Hintergrund gewinnt die Warnung von Elon Musk „KI ist viel gefährlicher als Atomwaffen“ eine topaktuelle Bedeutung: Die Regulierung der KI-Entwicklung ist unverzichtbar, und zwar schon im Vorfeld! Denn wenn eine durchgeknallte KI erst einmal Amok läuft, dann ist es für uns bereits zu spät!
Was die Regulierung betrifft, da ist die Politik gefordert. Nur wissen wir ja leider, wie die aufgrund ihrer „überragenden Kompetenzen“ auf technische Entwicklungen reagiert. Man denke in diesem Kontext zurück an Kupferkabel-ISDN und Glasfaser, an Analogübertragung und DSL, an #Neuland und Internet, aktuell an den Einstieg in die Wasserstoffwirtschaft usw. – die Liste ließe sich wahrscheinlich noch beliebig verlängern. Oder daran, wie ignorant Söder und Laschet auf die ersten Coronafälle in Deutschland reagiert haben – so dass die Seuche in deren Zuständigkeitsbereichen ihren Ausgang nehmen konnte – und wie die sich später hinstellten und die Krisenmanager mimten. Noch’n Beispiel: WLAN verwende ich seit über zwei Jahrzehnten. Am 14.03.2023 meldet das Nachrichtenjournal „Heute“ im ZDF, dass angedacht ist, die Bundeswehr künftig damit auszustatten. Das zeigt, wie zeitnah unsere Politik zu reagieren vermag. Bei einer wildgewordenen KI befürchte ich allerdings, dass es ein „Später“ vielleicht nicht mehr geben wird …
so sehe ich das auch.
mal angenommen sie rotten uns nicht gleich aus, so
werden sie uns auf alle fälle lenken und leiten nach
ihren kodex.
später landet die gesamte menschheit eh in die
abfalltonne.
vieleicht wäre es besser wenn wir uns vorher selbst
ausrotten,genügende anzeichen gibt es ja schon.
ja,wir werden sehen was kommt,bei der momentanen
verblödung der menschen ist alles möglich.
LikeLike
Na ja,
vielleicht hätte das Ganze ja auch etwas Positives, wenn die KI mit der generell geltenden Regel daraufhin programmiert ist, „Menschen zu unterstützen und zu helfen“ und sie keinesfalls auszurotten oder Ihnen unzumutbar zu schaden.
Ich schrieb ja schon in einem anderen Kommentar, man sollte einmal versuchen, Politiker durch KI zu ersetzen. Zumindest Beweggründe wie Korruption, Koalitionszwang, Machtwillen, etc. könnten unterbunden werden, wenn die Programmierung auf Objektivität und Sachlichkeit basiert.
LikeLike
stimmt…natürlich wäre es möglich.
aber wenn geld und macht ins spiel kommen
werden immer alle guten vorsätze über bord
geworfen.
eine K.I.würde nach menschlichen maßstäben
programmiert werden und diese sind nicht nur
edel.
dem menschen lüstet schon seid gedenken,nach
reichtum und macht,möglich wäre auch das diese
dann für uns in den krieg ziehen müssen.
wir sollten beim thema K.I.s wachsam bleiben.
LikeGefällt 1 Person
Das sind interessante Überlegungen und eine spannende Unterhaltung mit ChatGPT. Danke dafür!
Die KI „sagt“ ja, dass das „Verhalten“ der KI davon abhängt, wie das autonome System programmiert und trainiert wurde und welche Ziele es verfolgt. Ich gehe davon aus, dass die Programmierer, also Menschen, diese Ziele definieren und festsetzen.
Die Ziele hängen aber vom Kontext ab, in dem das System eingesetzt wird. Ob es für das Gesundheitssystem, das Verkehrswesen oder für nationale Sicherheit programmiert wird, macht einen Unterschied. Ich kann mir vorstellen, dass autonome Systeme, die für die Sicherheit geschaffen werden, Menschenleben vernichten können und dass sich Systeme „irren“ können und somit auch zur Massenvernichtungswaffe werden können.
Du schreibst: „Daher ist es wichtig, dass wir uns bei der Entwicklung von autonomen Systemen bewusst sind, welche Ziele und Werte wir ihnen vermitteln“. Ich glaube, dass es noch relativ einfach ist, Ziele in diesen Kontexten zu definieren. Aber was die grundlegenden Werte betrifft, da wird es wirklich kompliziert, da in unseren Gesellschaften kein Konsens herrscht. Und genau das ist für mich das Hauptproblem und das Bedrohliche an der KI.
Liebe Grüße, Nadia
LikeLike
Natürlich könnte es – insbesondere mit Hinblick auf die grundlegenden Werte und theoretisch – auch ganz anders sowie ausgesprochen positiv laufen:
https://quergedacht40.wordpress.com/2022/07/14/beeindruckend-pantopia/
LikeGefällt 1 Person