LinuxUser1334 hat geschrieben: 21.05.2024 13:51:18
Man kann die Aussage, dass Maschinen künftig auch ein Bewusstsein haben, in keiner Weise widerlegen.
Im Studium hab ich mal aufgeschnappt, dass es sogar einen mathematischen Beweis dafür gibt, dass ein Computer kein Bewusstsein erlangen kann.
Aber ob ich da nun was falsch verstanden habe oder ob es um die klassische Turing-Maschine ging, kann ich heute nicht mehr eindeutig nachvollziehen.
Die KI, die mir bisher immer nur erzählt hat, was sie alles nicht kann, und wenn ich ihr was für mich erstaunliches erzähle immer wieder mit "Eine sehr interessante These, die du da ...", nur um im weiteren Verlauf zu erklären, dass das in der Welt der Wissenschaft schon längst ein alter Hut ist, dann kommt mir ChatGPT eher vor wie ein besseres Text-Adventure. Das Text- und Grafik-Adventure "Der Stein der Weisen" auf dem Atari 800XL hatte mich in den 1980ern dazu verleitet, stundenlang zu diskutieren, ob er denn nun blöd sei oder ich. Die antworten waren halt clever vorformuliert und waren vom Autoren eigentlich dazu erdacht worden, dem Spieler mitzuteilen, dass er den letzten Befehl nicht kannte. Damals hätte ich schwören können, der redet mit mir bewusst.
Auch ich nehme mit unter an, dass das (eigene) Bewusstsein nur Einbildung sei und sich aus der Komplexität des gesammelten Wissens zusammensetzt und selbst bildet. Da ich schon mein ganzes Leben über das Bewusstsein nachdenke, weiß ich aus meiner Erinnerung, dass ich als Kind ein klares Bewusstsein hatte. Denke ich aber über meine Kindheit - und gerade die wilde unkontrollierte Zeit der Pupertät - nach, kommt es mir vor, als hätte ich unbewusst und ausschließlich reflexiv gehandelt. Ich erkläre mir oft, dass ich damals weniger wusste als heute. Ich hatte also trotz weniger Wissens ein klares Bewusstsein, aber heute ist es noch klarer. An komlexen Wissen allein kann also Bewusstsein nicht festgemacht werden. Kürzlich haben Wissenschaftler festgestellt bzw. sich höchst offiziell darauf geeinigt, was Tierliebhabern ohnehin längst klar war: auch Tiere haben ein Bewusstsein. Aber auch hier spiel die Größe des Gehirns keine Rolle: selbst Instekten, wie Bienen, haben der wissenschaftlichen Definition nach ein Bewusstsein.
Und auch ein mir in dem Zusammenhang neuer Begriff unterstützt die These, dass das Bewusstsein nicht nur Einbildung ist: das "Erleben". Das Erleben der Farben, das Erleben des Geschmacks und aller anderen Sinne. Sicher, rein chemisch und evolutional kann man die Gründe für alles erklären, aber dennoch erleben wir da, dass rot rot aussieht, blau blau und das Schmerzen nicht nur Warnsignale sind, die wir gelegentlich mal beachten sollte, sondern richtig wehtun.
Sollte also der Beweis gelautet haben, dass eine Turing-Maschine kein Bewusstsein erlangen kann, so kann eine Touring-Maschine dennoch einiges simulieren und emulieren, u.a. andere Prozessoren oder aber auch Lernprozesse, die denen des Menschen ähneln.
Allerdings, und das war mir auch schon seit meiner Kindheit eine Theorie, die ich mal in einer Wissenschaftssendung aufgeschnappt habe, muss die Maschine selber lernen. Man kann ihr nicht das Wissen eintrichtern, was einmal das Bewusstsein erzeugen soll. Dieses Wissen wäre das, was wir in Büchern lesen, die selber kein Bewusstsein haben. Das Wissen, was das Bewusstsein bilden soll, muss von der Maschine selbst erlernt werden - und selber lernen kann die KI ja schon (aber ich glaube momentan noch nicht, dass das zu einen Bewusstsein führen wird).
ChatGPT scheint anders zu arbeiten, als eine Touring-Maschine (das sagte der Chat-Bot auch über sich selbst, als ich ihn nach seiner Architektur fragte, also x86 oder ARM). Beispiel: ich gab mehrere sehr großen Zahlen vor und fragte, ob es denn Primzahlen seien. Erst bot mir ChatGPT an, statistisch zu errechnen, wie wahrscheinlich es sei, dass diese Zahl eine Primzahl ist. Die genaue Berechnung wäre nicht möglich.
Doch als ich eine sehr große Zahl mit einer durch 3 teilbaren Quersumme vorgab, machte die KI einen Fehler. Die Zahl hatte eine Quersumme von 123, die KI errechnete aber 122. Also eine einfache addition weniger Ziffern. Das machte die KI falsch. Keine Touring-Maschine der Welt macht so etwas falsch! Deshalb denke ich, dass ChatGPT nicht wie eine Touring-Maschine arbeitet. Ein mathematischer Beweis, dass eine Touring-Maschine kein Bewusstsein erlangen kann, wäre also hier nicht anwendbar.
Schlussendlich können wir niemals wissen, ob die Maschine ein Bewusstsein hat oder ob bewusstes Verhalten einfach nur unheimlich clever programmiert worden ist, ganz einfach, weil es nicht unser Bewusstsein ist und wir es nicht einnehmen können (genauso, wie wir nicht das Bewusstsein anderer Menschen einnehmen können).