KI, Optimisten gegen Pessimisten und warum die Singularität nicht nah ist

Letztes Jahr habe ich Ray Kurzweils Buch "How to Create a Mind" gelesen und es hat mich sehr beeindruckt. Dies führte mich zu seinem anderen Buch, The Singularity is Near, das eine äußerst optimistische Vision der Zukunft der KI bot.

Ich hatte immer Respekt vor Kurzweil, weil er im Gegensatz zu anderen KI-Kommentatoren Erfahrung auf diesem Gebiet hat. Er ist einer der wenigen extremen KI-Optimisten, die den Extremismus der KI-Pessimisten ausgleichen.

Wie viele Kritiker der KI glaubt auch Kurzweil an die technologische Singularität und denkt, dass sie unmittelbar bevorsteht (2045!). Die Singularität besagt, dass Technologie, wenn sie ein bestimmtes Niveau erreicht, in einen sich wiederholenden Kreislauf der Selbstverbesserung eintreten kann. Dies würde zu einer Intelligenzexplosion führen, die die gesamte menschliche Intelligenz in den Schatten stellt und zu einer äußerst instabilen Ära führt. In der Mathematik bezieht sich der Name Singularität auf einen Punkt, den ein gegebenes mathematisches Objekt nicht definiert (z. B. f (x) = 1 / x bei x = 0). Befürworter der technologischen Singularität glauben, dass KI-Algorithmen diesen Punkt erreichen und die Gesellschaft verändern werden.

Die meiste künstliche Intelligenz wird heute durch einen einfachen Belohnungsmechanismus trainiert. Die Intelligenz erhält eine Eingabe, eine Architektur und wird angewiesen, eine Funktion basierend auf der richtigen Antwort zu maximieren oder zu minimieren. Einige Beispiele:

  1. Englischer Satz → ■ → spanischer Satz
  2. Schallwelle → ■ → Wörter
  3. Pixel → ■ → Hot Dog oder nicht Hot Dog

Was in der Box vor sich geht, wird optimiert, um die Wahrscheinlichkeit zu erhöhen, die richtige Antwort zu geben, die bereitgestellt wird. Es gibt auch unbeaufsichtigtes Lernen, bei dem keine Antwort bereitgestellt wird. Stattdessen besteht das Ziel normalerweise darin, eine gewisse Struktur in den bereitgestellten Informationen zu finden. Die Unterscheidung ist jedoch nur oberflächlich, da die Architektur immer noch dazu dient, eine Art Nutzfunktion zu maximieren / minimieren.

Was die Pessimisten denken, wird passieren

Pessimisten glauben, dass dieses System unweigerlich zu einer Katastrophe führen wird. Hier ist Nick Bostrom von Superintelligence über das Risiko übermäßig leistungsfähiger KI-Systeme:

Wenn wir die erste superintelligente Einheit erschaffen, könnten wir einen Fehler machen und ihr Ziele geben, die dazu führen, dass die Menschheit vernichtet wird, vorausgesetzt, ihr enormer intellektueller Vorteil gibt ihr die Macht, dies zu tun. Zum Beispiel könnten wir ein Unterziel fälschlicherweise in den Status eines Überziels versetzen. Wir sagen, es soll ein mathematisches Problem lösen, und dies geschieht, indem die gesamte Materie im Sonnensystem in ein riesiges Rechengerät verwandelt wird, wodurch die Person getötet wird, die die Frage gestellt hat.

Grundsätzlich sagt er, dass die Black Box naiv fast alles tun würde, um ihre Funktion zu maximieren. Er verwendet ein konkreteres Beispiel für eine künstliche Intelligenz mit dem Ziel, die Produktion von Büroklammern zu maximieren:

Es würde immer bessere Techniken entwickeln, um die Anzahl der Büroklammern zu maximieren. Irgendwann könnte es „zuerst die ganze Erde und dann Teile des Weltraums in Büroklammer-Produktionsanlagen verwandeln“.

Ich bin mir nicht sicher, wie praktisch es ist, die gesamte kollektive Materie des Universums einem Algorithmus zu übergeben. Aber wenn es etwas wirklich Kluges gäbe, könnte Bostrom einen Weg finden, uns alle umzubringen, und es würde nicht zögern, dies zu tun.

Was die Optimisten denken, wird passieren

Manchmal können zwei Personen dieselben Fakten betrachten und völlig unterschiedliche Interpretationen finden. Kurzweil und andere KI-Optimisten glauben, dass die Singularität der menschlichen Gesellschaft unangekündigten Wohlstand bringen wird. Er schätzt, dass eine Maschine den Turing-Test bis 2029 bestehen wird. Denn wenn eine Maschine einen Menschen dazu verleiten kann, zu denken, dass sie in einem Gespräch real ist, ist sie jetzt irgendwie menschlich. Und bis 2045 werden wir die volle Singularität haben:

Das Tempo des Wandels wird so erstaunlich schnell sein, dass wir nicht mithalten können, es sei denn, wir verbessern unsere eigene Intelligenz durch die Verschmelzung mit den intelligenten Maschinen, die wir erstellen

Was seine Wirkung auf den Menschen betrifft:

Wir Menschen werden anfangen, uns miteinander zu verbinden und eine Meta-Verbindung zu werden. Wir werden alle miteinander verbunden und allgegenwärtig sein, in dieses globale Netzwerk eingebunden sein, das mit Milliarden von Menschen verbunden und mit Daten gefüllt ist.
Ich für meinen Teil begrüße unsere neuen Insektenoberherren

Nicht nur das, sondern wir werden für immer leben. Machen Sie sich keine Gedanken über widersprüchliche Informationen, die regelmäßig herauskommen, ob ein Essen gut oder schlecht für Sie ist. Kurzweil ist der Meinung, dass wir kurz davor stehen, die menschliche Gesundheit nicht nur zu verstehen, sondern ein für alle Mal zu lösen. Tatsächlich sagte Kurzweil 2005 voraus, dass wir innerhalb von fünf bis zehn Jahren eine Pille haben werden, mit der die Menschen essen können, was sie wollen, ohne an Gewicht zuzunehmen. Wie machen wir das? Um Peter Thiel zu paraphrasieren:

Wir wollten Tabletten, mit denen wir essen können, was wir wollen, stattdessen haben wir Gummibänder, die wir uns um den Magen binden können.

Durchbruch wissenschaftliche Leistungen sind in der Regel immer 10 bis 15 Jahre entfernt. Die Wissenschaftler könnten keine Finanzierung mehr erhalten. Bei einer kürzeren Zeit müssten die Wissenschaftler tatsächlich Ergebnisse liefern.

Was wird eigentlich passieren

Wahrscheinlich nicht viel. 2016 wurde eine Umfrage unter führenden Wissenschaftlern in der KI durchgeführt. Eine der Fragen lautete: „Wann werden wir Superintelligenz erreichen?“. Die Ergebnisse sind ein anderes Bild malen:

Die Kommentare gaben einen Einblick in die Gedanken der Forscher:

„Weit, weit, weit mehr als 25 Jahre. Jahrhunderte am wahrscheinlichsten. Aber nicht niemals. “
"Wir stehen im Wettbewerb mit der Entwicklung des menschlichen Gehirns in Millionen von Jahren. Wir können Single-Purpose-Programme schreiben, die mit Menschen konkurrieren können und manchmal überdurchschnittlich gut abschneiden, aber die Welt ist nicht sauber in Single-Problem-Fragen unterteilt. “
„Nick Bostrom ist ein professioneller Angsthändler. Die Aufgabe seines Instituts ist es, existenzielle Bedrohungen für die Menschheit zu finden. Er sieht sie überall. Ich bin versucht, ihn als "Donald Trump" von AI zu bezeichnen. "

Rodney Brooks, ehemaliger Direktor des MIT-Labors für Informatik und künstliche Intelligenz, hatte für Bolstrom ähnlich harte Worte:

Es ist nicht nur eine KI. Er ist kein besonders erfahrener KI-Experte als auf der Suche nach außerirdischem Leben. Aber genau das macht er. Das ist sein Ticket. Also, was die anderen betrifft - und auch Nick - hat keiner dieser Leute, die sich darüber Sorgen machen, jemals irgendwelche Arbeit in der KI selbst geleistet. Sie waren draußen. Gleiches gilt für Max Tegmark; es war wahr von Lord Martin Rees ... Sie vermissen, wie schwer es ist.

Er fährt fort, dass die Menschen dazu neigen, das zu anthropomorphisieren, was Computer tun. Wenn Sie also ein neuronales Netzwerk sehen, das ein menschliches Gesicht entdeckt, denken Sie, es weiß, wer ich bin! Aber es kennt dich nicht. Es weiß nichts. Es ist nicht einmal eine Sache. Es handelt sich um eine Reihe von Zahlen, die mathematische Transformationen für Zahlen darstellen, die Pixel darstellen. Der Sprung von diesem zum Ende der Menschheit ist so absurd, dass es fast nicht wert ist, darüber zu diskutieren.

Die zynische Ansicht ist natürlich, dass die Forscher es vorziehen würden, die Auswirkungen ihrer Technologie herunterzuspielen, um keine strenge behördliche Hand anzulocken. Aber dieses Argument erscheint mir verschwörerisch. Als ob alle KI-Forscher in eine transhumanistische Gesellschaft eingebunden wären, die die Sorgen um die Menschheit sofort beim Beitritt beiseite wirft. Die selbst zugeschriebenen Transhumanisten sind die größten Alarmisten.

Warum glaubt jemand, dass die Singularität nahe ist?

Der Hauptschuldige ist Moores Gesetz. Das Moore'sche Gesetz besagt, dass sich die Anzahl der Transistoren in einer integrierten Schaltung etwa alle zwei Jahre verdoppelt. Es hat sich seit den 60er Jahren stabilisiert, obwohl viele Prognostiker, einschließlich Gordon Moore, damit rechnen, dass das Gesetz um 2025 endet.

Die Befürworter einer Singularität betrachten grobe Maße dessen, was das Gehirn tut, und übersetzen dies in mathematische Berechnungen, die Maschinen ausführen. Irgendjemand hat das menschliche Gehirn mit 10 ^ n Berechnungen pro Sekunde gemessen und das Datum, an dem wir es treffen werden, mithilfe des Mooreschen Gesetzes zurückgesetzt.

Der Gedanke, dass Menschen einfach nur Taschenrechner sind, scheint mir auch nicht menschlich zu sein. Niemand hat eine Ahnung, was in einem menschlichen Gehirn vor sich geht. Es ist nicht die Rechenleistung, die jemanden davon abhält, ein Gehirn abzubilden. Der Begriff „neuronales Netzwerk“ zur Beschreibung einer Architektur für maschinelles Lernen war keine gute Wahl. Ebenso haben wir keine Ahnung, was im Gehirn einer Maus vor sich geht, und laut der rohen Verarbeitungsleistung sollten wir das jetzt geknackt haben. In diesem Fall könnten wir nur Mäusesimulationen durchführen und Labormäuse aus ihrem Elend befreien.

Ich kann noch viel mehr über die pessimistischen und optimistischen Massen sagen, die ich zu einem späteren Zeitpunkt untersuchen werde. Die Ironie ist, dass das eine, worüber sich beide Seiten einig sind, dass die Singularität nahe ist, vielleicht ihr größter Fehler ist.