Künstliche Intelligenz. Zweiter Teil: Aussterben oder Unsterblichkeit?

Inhaltsverzeichnis:

Künstliche Intelligenz. Zweiter Teil: Aussterben oder Unsterblichkeit?
Künstliche Intelligenz. Zweiter Teil: Aussterben oder Unsterblichkeit?

Video: Künstliche Intelligenz. Zweiter Teil: Aussterben oder Unsterblichkeit?

Video: Künstliche Intelligenz. Zweiter Teil: Aussterben oder Unsterblichkeit?
Video: ALLES SPINNER ODER ECHTE GEFAHR? -- Doku: Freie Sachsen -- rechtes Verschwörertum -- Reaktion 2024, März
Anonim
Künstliche Intelligenz. Zweiter Teil: Aussterben oder Unsterblichkeit?
Künstliche Intelligenz. Zweiter Teil: Aussterben oder Unsterblichkeit?

Vorher kommt der zweite Teil eines Artikels aus der Serie "Warte, wie kann das alles echt sein, warum wird es immer noch nicht an jeder Ecke geredet." In der vorherigen Serie wurde bekannt, dass sich allmählich eine Explosion der Intelligenz auf die Menschen des Planeten Erde einschleicht, die versucht, sich von einer eng fokussierten zu einer universellen Intelligenz und schließlich zu einer künstlichen Superintelligenz zu entwickeln.

"Vielleicht stehen wir vor einem äußerst schwierigen Problem, und es ist nicht bekannt, wie viel Zeit für seine Lösung vorgesehen ist, aber die Zukunft der Menschheit könnte von seiner Lösung abhängen." - Nick Bostrom.

Der erste Teil des Artikels begann ganz harmlos. Wir haben über eng fokussierte künstliche Intelligenz (KI, die sich auf die Lösung eines bestimmten Problems wie das Bestimmen von Routen oder das Schachspielen spezialisiert hat) gesprochen, davon gibt es in unserer Welt viel. Dann analysierten sie, warum es so schwierig ist, eine allgemeine gerichtete künstliche Intelligenz (AGI oder KI, die in Bezug auf die intellektuellen Fähigkeiten bei der Lösung jedes Problems mit einem Menschen zu vergleichen ist) so schwierig zu entwickeln. Wir kamen zu dem Schluss, dass die exponentielle Geschwindigkeit des technologischen Fortschritts darauf hindeutet, dass AGI ziemlich bald vor der Tür stehen könnte. Am Ende haben wir beschlossen, dass, sobald Maschinen die menschliche Intelligenz erreichen, sofort Folgendes passieren kann:

Bild
Bild
Bild
Bild
Bild
Bild
Bild
Bild

Wie üblich schauen wir auf den Bildschirm und glauben nicht, dass künstliche Superintelligenz (ISI, die viel schlauer ist als jeder Mensch) zu unseren Lebzeiten erscheinen kann, und wählen Emotionen, die unsere Meinung zu diesem Thema am besten widerspiegeln.

Bevor wir in die Besonderheiten von ISI eintauchen, wollen wir uns daran erinnern, was es für eine Maschine bedeutet, superintelligent zu sein.

Der Hauptunterschied liegt zwischen schneller Superintelligenz und qualitativer Superintelligenz. Wenn man an einen superintelligenten Computer denkt, denkt man oft als erstes daran, dass er viel schneller denken kann als ein Mensch – millionenfach schneller, und in fünf Minuten begreift er, was ein Mensch zehn Jahre brauchen würde. ("Ich kenne Kung-Fu!")

Es klingt beeindruckend, und der ISI sollte wirklich schneller denken als alle anderen - aber das wichtigste Unterscheidungsmerkmal wird die Qualität seiner Intelligenz sein, die völlig anders ist. Menschen sind viel schlauer als Affen, nicht weil sie schneller denken, sondern weil ihr Gehirn eine Reihe ausgeklügelter kognitiver Module enthält, die komplexe sprachliche Darstellungen, langfristige Planungen, abstraktes Denken durchführen, zu denen Affen nicht fähig sind. Wenn Sie das Gehirn eines Affen tausendmal beschleunigen, wird es nicht schlauer als wir - es wird auch nach zehn Jahren keinen Konstruktor nach Anleitung zusammenbauen können, was ein Mensch höchstens ein paar Stunden in Anspruch nehmen würde. Es gibt Dinge, die ein Affe nie lernen wird, egal wie viele Stunden er damit verbringt oder wie schnell sein Gehirn arbeitet.

Außerdem weiß der Affe nicht, wie menschlich, weil sein Gehirn einfach nicht in der Lage ist, die Existenz anderer Welten zu erkennen - der Affe weiß vielleicht, was ein Mensch ist und was ein Wolkenkratzer ist, wird aber nie verstehen, dass ein Wolkenkratzer von. gebaut wurde Personen. In ihrer Welt gehört alles zur Natur, und die Makaken können nicht nur keinen Wolkenkratzer bauen, sondern verstehen auch, dass jeder sie überhaupt bauen kann. Und dies ist das Ergebnis eines kleinen Unterschieds in der Qualität der Intelligenz.

Nach dem allgemeinen Intelligenzschema, von dem wir sprechen, oder einfach nach den Maßstäben biologischer Wesen, ist der Unterschied in der Qualität der Intelligenz zwischen Menschen und Affen winzig. Im vorherigen Artikel haben wir die biologischen kognitiven Fähigkeiten auf eine Leiter gestellt:

Bild
Bild

Um zu verstehen, wie ernst eine superintelligente Maschine ist, platzieren Sie sie zwei Stufen höher als die Person auf dieser Leiter. Diese Maschine mag nur ein wenig superintelligent sein, aber ihre Überlegenheit über unsere kognitiven Fähigkeiten wird dieselbe sein wie unsere – über die Affen. Und so wie ein Schimpanse nie begreifen wird, dass ein Wolkenkratzer gebaut werden kann, werden wir vielleicht nie verstehen, was eine Maschine ein paar Stufen höher versteht, selbst wenn die Maschine versucht, es uns zu erklären. Aber das sind nur ein paar Schritte. Die intelligentere Maschine wird Ameisen in uns sehen - sie wird uns jahrelang die einfachsten Dinge aus ihrer Position lehren, und diese Versuche werden völlig aussichtslos sein.

Die Art der Superintelligenz, über die wir heute sprechen, liegt weit jenseits dieser Leiter. Dies ist eine Explosion der Intelligenz – je intelligenter ein Auto wird, desto schneller kann es seine eigene Intelligenz steigern und die Dynamik allmählich steigern. Es kann Jahre dauern, bis eine Maschine wie diese Schimpansen an Intelligenz übertrifft, aber vielleicht ein paar Stunden, um uns um ein paar Stufen zu übertreffen. Von diesem Moment an kann das Auto jede Sekunde bereits vier Schritte überspringen. Deshalb sollten wir verstehen, dass wir sehr bald nach der ersten Nachricht, dass die Maschine das Niveau der menschlichen Intelligenz erreicht hat, der Realität der Koexistenz auf der Erde mit etwas begegnen können, das auf dieser Leiter viel höher sein wird als wir (oder vielleicht. und millionenfach höher):

Bild
Bild

Und da wir festgestellt haben, dass es völlig sinnlos ist, die Leistungsfähigkeit einer Maschine zu verstehen, die nur zwei Schritte über uns liegt, definieren wir ein für alle Mal, dass es keine Möglichkeit gibt, zu verstehen, was der ISI tun wird und welche Folgen dies hat das wird für uns sein. Wer das Gegenteil behauptet, versteht einfach nicht, was Superintelligenz bedeutet.

Die Evolution hat das biologische Gehirn über Hunderte von Millionen Jahren langsam und allmählich entwickelt, und wenn Menschen eine superintelligente Maschine erschaffen, werden wir in gewisser Weise die Evolution überwinden. Oder es wird Teil der Evolution sein – vielleicht funktioniert die Evolution so, dass sich die Intelligenz allmählich entwickelt, bis sie einen Wendepunkt erreicht, der allen Lebewesen eine neue Zukunft ankündigt:

Bild
Bild

Aus Gründen, auf die wir später eingehen werden, glaubt ein großer Teil der wissenschaftlichen Gemeinschaft, dass die Frage nicht darin besteht, ob wir diesen Wendepunkt erreichen, sondern wann.

Wo landen wir danach?

Ich glaube, niemand auf dieser Welt, weder ich noch Sie, wird sagen können, was passiert, wenn wir den Wendepunkt erreichen. Der Oxford-Philosoph und führende KI-Theoretiker Nick Bostrom glaubt, dass wir alle möglichen Ergebnisse in zwei große Kategorien einteilen können.

Wenn wir die Geschichte betrachten, wissen wir zunächst folgendes über das Leben: Arten erscheinen, existieren für eine gewisse Zeit, fallen dann unweigerlich vom Schwebebalken und sterben aus.

Bild
Bild

"Alle Arten sterben aus" war in der Geschichte eine ebenso zuverlässige Regel wie "alle Menschen sterben eines Tages". 99,9% der Arten sind von einem Baumstamm gefallen, und es ist ziemlich klar, dass ein natürlicher Windstoß oder ein plötzlicher Asteroid den Baumstamm umdrehen wird, wenn eine Art zu lange an diesem Baumstamm hängt. Bostrom nennt das Aussterben den Zustand eines Attraktors – ein Ort, an dem alle Arten im Gleichgewicht sind, um nicht zu fallen, wo noch keine Art zurückgekehrt ist.

Und obwohl die meisten Wissenschaftler zugeben, dass ISI die Fähigkeit haben wird, Menschen zum Aussterben zu bringen, glauben viele auch, dass die Nutzung der Fähigkeiten von ISI es Individuen (und der Spezies als Ganzes) ermöglichen wird, den zweiten Zustand des Attraktors zu erreichen – die Unsterblichkeit der Spezies. Bostrom glaubt, dass die Unsterblichkeit einer Art ebenso ein Attraktor ist wie das Aussterben einer Art, das heißt, wenn wir dazu gelangen, sind wir zur ewigen Existenz verdammt. Auch wenn bis jetzt alle Arten von diesem Stock in den Strudel des Aussterbens gefallen sind, glaubt Bostrom, dass der Baumstamm zwei Seiten hat und es einfach keine solche Intelligenz auf der Erde gibt, die es versteht, auf die andere Seite zu fallen.

Bild
Bild

Wenn Bostrom und andere Recht haben und nach allen uns vorliegenden Informationen zu urteilen, können sie es durchaus sein, müssen wir zwei sehr schockierende Tatsachen akzeptieren:

Das erstmalige Auftreten von ISI in der Geschichte wird einer Art den Weg ebnen, Unsterblichkeit zu erlangen und aus dem fatalen Kreislauf des Aussterbens herauszutreten.

Das Aufkommen des ISI wird einen so unvorstellbar großen Einfluss haben, dass es die Menschheit höchstwahrscheinlich in die eine oder andere Richtung von diesem Baumstamm abbringen wird.

Es ist möglich, dass die Evolution, wenn sie einen solchen Wendepunkt erreicht, immer die Beziehung der Menschen zum Strom des Lebens beendet und eine neue Welt mit oder ohne Menschen schafft.

Dies führt zu einer interessanten Frage, die nur ein Mistkerl nicht stellen würde: Wann kommen wir an diesen Wendepunkt und wohin führt er uns? Niemand auf der Welt kennt die Antwort auf diese doppelte Frage, aber viele kluge Leute versuchen seit Jahrzehnten, sie herauszufinden. Für den Rest des Artikels werden wir herausfinden, woher sie stammen.

* * *

Beginnen wir mit dem ersten Teil dieser Frage: Wann sollten wir den Wendepunkt erreichen? Mit anderen Worten: Wie viel Zeit bleibt, bis die erste Maschine die Superintelligenz erreicht?

Die Meinungen gehen von Fall zu Fall auseinander. Viele, darunter Professor Vernor Vinge, der Wissenschaftler Ben Herzel, der Mitbegründer von Sun Microsystems Bill Joy, der Zukunftsforscher Ray Kurzweil, stimmten dem Experten für maschinelles Lernen Jeremy Howard zu, als er beim TED Talk die folgende Grafik präsentierte:

Bild
Bild

Diese Leute teilen die Ansicht, dass ISI bald kommt – dieses exponentielle Wachstum, das uns heute langsam erscheint, wird in den nächsten Jahrzehnten buchstäblich explodieren.

Andere, wie der Microsoft-Mitbegründer Paul Allen, der Forschungspsychologe Gary Marcus, der Computerexperte Ernest Davis und der Tech-Unternehmer Mitch Kapor glauben, dass Denker wie Kurzweil das Ausmaß des Problems ernsthaft unterschätzen und denken, dass wir nicht annähernd so nah an einem Wendepunkt.

Das Lager von Kurzweil argumentiert, dass die einzige Unterschätzung, die vorkommt, die Missachtung des exponentiellen Wachstums ist, und die Zweifler können mit denen verglichen werden, die 1985 das langsam boomende Internet betrachteten und argumentierten, dass es in naher Zukunft keine Auswirkungen auf die Welt haben würde.

Zweifler mögen abwehren, dass es für den Fortschritt schwieriger wird, jeden weiteren Schritt zu gehen, wenn es um die exponentielle Entwicklung der Intelligenz geht, die die typische exponentielle Natur des technologischen Fortschritts neutralisiert. Usw.

Das dritte Lager, zu dem Nick Bostrom gehört, widerspricht entweder dem ersten oder dem zweiten und argumentiert, dass a) all dies durchaus in naher Zukunft passieren kann; und b) es gibt keine Garantie dafür, dass dies überhaupt geschieht oder länger dauert.

Andere, wie der Philosoph Hubert Dreyfus, glauben, dass alle drei Gruppen naiv glauben, dass es überhaupt einen Wendepunkt geben wird und dass wir höchstwahrscheinlich nie zum ISI kommen werden.

Was passiert, wenn wir all diese Meinungen zusammenfassen?

Im Jahr 2013 führte Bostrom eine Umfrage durch, in der er Hunderte von KI-Experten auf einer Reihe von Konferenzen zu folgendem Thema interviewte: "Was werden Ihre Vorhersagen sein, um AGI auf menschlicher Ebene zu erreichen?" und bat uns, ein optimistisches Jahr (in dem wir AGI mit einer Wahrscheinlichkeit von 10 Prozent haben), eine realistische Annahme (ein Jahr, in dem wir AGI mit einer Wahrscheinlichkeit von 50 Prozent haben) und eine zuversichtliche Annahme (das früheste Jahr, in dem AGI wird mit 90-prozentiger Wahrscheinlichkeit auftreten). Hier sind die Ergebnisse:

* Durchschnittliches optimistisches Jahr (10%): 2022

* Durchschnittliches realistisches Jahr (50%): 2040

* Durchschnittliches pessimistisches Jahr (90%): 2075

Die durchschnittlichen Befragten glauben, dass wir in 25 Jahren eher AGI haben werden als nicht. Eine 90-prozentige Wahrscheinlichkeit, dass AGI bis 2075 auftritt, bedeutet, dass, wenn Sie jetzt noch recht jung sind, dies höchstwahrscheinlich in Ihrem Leben passieren wird.

Eine separate Studie, die kürzlich von James Barratt (Autor des gefeierten und sehr guten Buches Our Latest Invention, Auszüge aus Ich habe den Lesern präsentiert Hi-News.ru) und Ben Hertzel auf der AGI-Konferenz, der jährlichen AGI-Konferenz, zeigten einfach die Meinungen der Leute zu dem Jahr, in dem wir zur AGI kommen: 2030, 2050, 2100, später oder nie. Hier sind die Ergebnisse:

* 2030: 42 % der Befragten

* 2050: 25%

* 2100: 20%

Nach 2100: 10%

Nie: 2%

Ähnlich den Ergebnissen von Bostrom. In Barratts Umfrage glauben mehr als zwei Drittel der Befragten, dass AGI bis 2050 hier sein wird, und weniger als die Hälfte glaubt, dass AGI in den nächsten 15 Jahren auftauchen wird. Auffallend ist auch, dass nur 2 % der Befragten AGI grundsätzlich nicht in unserer Zukunft sehen.

Aber AGI ist kein Wendepunkt wie ISI. Wann werden wir laut Experten ein ISI haben?

Bostrom fragte die Experten, wann wir ASI erreichen werden: a) zwei Jahre nach Erreichen von AGI (dh fast sofort aufgrund einer Explosion der Intelligenz); b) nach 30 Jahren. Ergebnisse?

Die durchschnittliche Meinung ist, dass der schnelle Übergang von AGI zu ISI mit einer Wahrscheinlichkeit von 10 % erfolgen wird, jedoch in 30 Jahren oder weniger mit einer Wahrscheinlichkeit von 75 %.

Aus diesen Daten wissen wir nicht, wann die Befragten eine 50-prozentige Wahrscheinlichkeit eines ASI nennen würden, aber basierend auf den beiden obigen Antworten nehmen wir an, es beträgt 20 Jahre. Das heißt, die weltweit führenden KI-Experten gehen davon aus, dass der Wendepunkt im Jahr 2060 kommen wird (AGI wird 2040 erscheinen + der Übergang von AGI zu ISI wird 20 Jahre dauern).

Bild
Bild

Natürlich sind alle oben genannten Statistiken spekulativ und geben lediglich die Meinung von Experten auf dem Gebiet der Künstlichen Intelligenz wieder, zeigen aber auch, dass die meisten Interessierten sich einig sind, dass KI bis 2060 wahrscheinlich auf den Markt kommt. In nur 45 Jahren.

Kommen wir zur zweiten Frage. Wenn wir den Wendepunkt erreichen, welche Seite der fatalen Entscheidung wird uns bestimmen?

Die Superintelligenz wird die stärkste Macht haben, und die entscheidende Frage für uns wird die folgende sein:

Wer oder was wird diese Macht kontrollieren und was wird ihre Motivation sein?

Die Antwort auf diese Frage wird davon abhängen, ob der ISI eine unglaublich starke Entwicklung, eine unermesslich erschreckende Entwicklung oder etwas dazwischen bekommt.

Natürlich versucht die Experten-Community auch diese Fragen zu beantworten. Die Umfrage von Bostrom analysierte die Wahrscheinlichkeit möglicher Folgen des Einflusses von AGI auf die Menschheit, und es stellte sich heraus, dass bei einer Wahrscheinlichkeit von 52 Prozent alles sehr gut und bei einer Wahrscheinlichkeit von 31 Prozent entweder alles schlecht oder extrem schlecht laufen wird. Die am Ende des vorigen Teils dieses Themas angehängte Umfrage, die unter Ihnen, liebe Hi-News-Leser, durchgeführt wurde, zeigte ungefähr die gleichen Ergebnisse. Für ein relativ neutrales Ergebnis betrug die Wahrscheinlichkeit nur 17%. Mit anderen Worten, wir alle glauben, dass AGI eine große Sache sein wird. Es ist auch erwähnenswert, dass diese Umfrage das Auftreten von AGI betrifft - im Fall von ISI wird der Neutralitätsprozentsatz geringer sein.

Bevor wir uns eingehender mit den guten und schlechten Seiten der Frage befassen, lassen Sie uns beide Seiten der Frage kombinieren - "Wann wird das passieren?" und "ist das gut oder schlecht?" in eine Tabelle, die die Ansichten der meisten Experten abdeckt.

Bild
Bild

Wir werden gleich über das Hauptlager sprechen, aber entscheiden Sie sich zuerst für Ihre Position. Die Chancen stehen gut, Sie befinden sich an der gleichen Stelle wie ich, bevor ich anfing, an diesem Thema zu arbeiten. Es gibt mehrere Gründe, warum Menschen überhaupt nicht über dieses Thema nachdenken:

* Wie im ersten Teil erwähnt, haben die Filme Menschen und Fakten ernsthaft durcheinander gebracht, unrealistische Szenarien mit künstlicher Intelligenz präsentiert, was dazu führte, dass wir KI überhaupt nicht ernst nehmen sollten. James Barratt verglich diese Situation mit einer ernsten Warnung der Centers for Disease Control (CDC) vor Vampiren in unserer Zukunft.

* Aufgrund sogenannter kognitiver Verzerrungen ist es für uns sehr schwer zu glauben, dass etwas echt ist, bis wir Beweise haben. Man kann sich getrost vorstellen, dass die Informatiker von 1988 regelmäßig über die weitreichenden Folgen des Internets und was es werden könnte diskutieren, aber die Menschen glaubten kaum, dass es ihr Leben verändern würde, bis es tatsächlich geschah. Es ist nur so, dass Computer 1988 nicht wussten, wie das geht, und die Leute schauten nur auf ihre Computer und dachten: „Wirklich? Wird das die Welt verändern? Ihre Vorstellungskraft war begrenzt durch das, was sie aus persönlicher Erfahrung gelernt hatten, sie wussten, was ein Computer war, und es war schwer vorstellbar, wozu ein Computer in der Zukunft fähig sein würde. Das gleiche passiert jetzt mit KI. Wir haben gehört, dass es eine ernste Sache werden wird, aber da wir es noch nicht von Angesicht zu Angesicht erlebt haben und wir in unserer modernen Welt im Allgemeinen eher schwache Manifestationen von KI beobachten, ist es für uns ziemlich schwer zu glauben, dass es radikal sein wird unser Leben verändern. Gegen diese Vorurteile wehren sich zahlreiche Experten aus allen Lagern, aber auch Interessierte, die versuchen, durch den Lärm alltäglicher kollektiver Egozentrik auf uns aufmerksam zu machen.

* Auch wenn wir an all das geglaubt haben - wie oft haben Sie heute daran gedacht, dass Sie den Rest der Ewigkeit im Nichts verbringen werden? Ein wenig, stimme zu. Auch wenn diese Tatsache viel wichtiger ist als alles, was Sie tagein, tagaus tun. Dies liegt daran, dass sich unser Gehirn normalerweise auf kleine, alltägliche Dinge konzentriert, egal wie wahnhaft die langfristige Situation ist, in der wir uns befinden. Wir sind einfach gemacht.

Eines der Ziele dieses Artikels ist es, Sie aus dem Lager "Ich denke gerne an andere Dinge" zu holen und in das Expertenlager zu stecken, auch wenn Sie gerade an der Kreuzung zwischen den beiden gestrichelten Linien im Quadrat stehen oben, völlig unentschlossen.

Bei der Recherche wird deutlich, dass die Meinungen der meisten Menschen schnell in Richtung „Stammlager“abdriften und drei Viertel der Experten im Stammlager in zwei Nebenlager fallen.

Bild
Bild

Wir werden beide Camps komplett besuchen. Beginnen wir mit Spaß.

Warum könnte die Zukunft unser größter Traum sein?

Während wir die KI-Welt erkunden, finden wir überraschend viele Menschen in unserer Komfortzone. Die Leute im oberen rechten Quadrat summen vor Aufregung. Sie glauben, dass wir auf die gute Seite des Protokolls fallen werden, und sie glauben auch, dass wir unweigerlich dazu kommen werden. Für sie ist die Zukunft nur das Beste, von dem man nur träumen kann.

Der Punkt, der diese Menschen von anderen Denkern unterscheidet, ist nicht, dass sie auf der glücklichen Seite sein wollen - sondern dass sie sicher sind, dass sie es ist, die auf uns wartet.

Dieses Vertrauen entsteht aus Kontroversen. Kritiker glauben, dass es von einer schillernden Aufregung herrührt, die potenzielle negative Seiten überschattet. Aber Befürworter sagen, düstere Vorhersagen seien immer naiv; Technologie geht weiter und wird uns immer mehr helfen als schaden.

Sie können jede dieser Meinungen frei wählen, aber legen Sie die Skepsis beiseite und schauen Sie sich die glückliche Seite des Schwebebalkens genau an und versuchen Sie zu akzeptieren, dass alles, was Sie lesen, möglicherweise bereits passiert ist. Wenn Sie Jägern und Sammlern unsere Welt des Komforts, der Technologie und der endlosen Fülle zeigen, erscheint ihnen dies wie eine magische Fiktion - und wir verhalten uns ganz bescheiden und können nicht zugeben, dass uns in Zukunft die gleiche unverständliche Transformation erwartet.

Nick Bostrom beschreibt drei Wege, die ein superintelligentes KI-System einschlagen kann:

* Ein Orakel, das jede genaue Frage beantworten kann, auch schwierige Fragen, die Menschen nicht beantworten können - zum Beispiel "Wie kann man einen Automotor effizienter machen?" Google ist eine primitive Art von "Orakel".

* Ein Geist, der jeden hochrangigen Befehl ausführt – mit Hilfe eines molekularen Assemblers, um eine neue, effizientere Version eines Automotors zu erstellen – und auf den nächsten Befehl wartet.

* Ein Souverän, der einen breiten Zugang und die Fähigkeit hat, frei in der Welt zu agieren, seine eigenen Entscheidungen zu treffen und den Prozess zu verbessern. Er wird eine billigere, schnellere und sicherere Art des privaten Transports erfinden als ein Auto.

Diese für uns schwierig erscheinenden Fragen und Aufgaben werden dem superintelligenten System so vorkommen, als ob jemand zur Verbesserung der Situation „mein Bleistift fiel vom Tisch“auffordern würde, bei dem man ihn einfach aufheben und zurücklegen würde.

Eliezer Yudkowski, ein amerikanischer Spezialist für künstliche Intelligenz, hat es treffend formuliert:

„Es gibt keine harten Probleme, nur Probleme, die für ein bestimmtes Intelligenzniveau schwer sind. Gehen Sie einen Schritt höher (in Bezug auf die Intelligenz), und einige Probleme werden plötzlich von der Kategorie "unmöglich" in das Lager von "offensichtlich" verschoben. Eine Stufe höher – und sie werden alle offensichtlich.“

Es gibt viele ungeduldige Wissenschaftler, Erfinder und Unternehmer, die von unserem Tisch eine Zone des sicheren Komforts gewählt haben, aber wir brauchen nur einen Führer, um in dieser besten Welt nach den Besten zu gehen.

Ray Kurzweil ist zweideutig. Manche vergöttern seine Ideen, manche verachten ihn. Manche bleiben in der Mitte - Douglas Hofstadter, der die Ideen von Kurzweils Büchern diskutierte, bemerkte beredt: "Es ist, als ob man viel gutes Essen und ein bisschen Hundekot nimmt und dann alles so vermischt, dass es unmöglich ist, es zu verstehen" was ist gut und was ist schlecht."

Ob Sie seine Ideen mögen oder nicht, es ist unmöglich, sie ohne einen Schatten des Interesses zu übergehen. Als Teenager begann er Dinge zu erfinden und erfand in den folgenden Jahren mehrere wichtige Dinge, darunter den ersten Flachbettscanner, den ersten Scanner zur Umwandlung von Text in Sprache, den bekannten Kurzweil-Musiksynthesizer (das erste echte E-Piano) und der erste kommerziell erfolgreiche Spracherkenner. Er ist auch Autor von fünf sensationellen Büchern. Kurzweil wird für seine kühnen Vorhersagen geschätzt, und seine Erfolgsbilanz ist ziemlich gut – Ende der 80er Jahre, als das Internet noch in den Kinderschuhen steckte, sagte er voraus, dass das Web in den 2000er Jahren zu einem globalen Phänomen werden würde. Das Wall Street Journal bezeichnete Kurzweil als „rastloses Genie“, Forbes als „globale Denkmaschine“, Inc. Magazine - "Edisons rechtmäßiger Erbe", Bill Gates - "der Beste von denen, die die Zukunft der künstlichen Intelligenz vorhersagen." 2012 lud Google-Mitbegründer Larry Page Kurzweil auf den Posten des CTO ein. 2011 war er Mitbegründer der Singularity University, die von der NASA gehostet und teilweise von Google gesponsert wird.

Seine Biografie zählt. Wenn Kurzweil über seine Zukunftsvision spricht, klingt das wie verrückt verrückt, aber das wirklich Verrückte daran ist, dass er alles andere als verrückt ist – er ist ein unglaublich kluger, gebildeter und vernünftiger Mensch. Sie denken vielleicht, dass er mit seinen Vorhersagen falsch liegt, aber er ist kein Narr. Die Vorhersagen von Kurzweil werden von vielen Komfortzonen-Experten, Peter Diamandis und Ben Herzel, geteilt. Das wird seiner Meinung nach passieren.

Chronologie

Kurzweil glaubt, dass Computer bis 2029 das Niveau der allgemeinen künstlichen Intelligenz (AGI) erreichen werden und wir bis 2045 nicht nur künstliche Superintelligenz haben, sondern auch eine völlig neue Welt – die Zeit der sogenannten Singularität. Die Chronologie der KI gilt immer noch als unverschämt übertrieben, aber in den letzten 15 Jahren hat die rasante Entwicklung hochfokussierter Systeme der künstlichen Intelligenz (KI) viele Experten auf die Seite von Kurzweil gezwungen. Seine Vorhersagen sind immer noch ehrgeiziger als die in Bostroms Umfrage (AGI bis 2040, ISI bis 2060), aber nicht viel.

Laut Kurzweil wird die Singularität von 2045 von drei gleichzeitigen Revolutionen in Biotechnologie, Nanotechnologie und vor allem KI angetrieben. Aber bevor wir fortfahren – und die Nanotechnologie folgt der künstlichen Intelligenz eng – lassen Sie uns einen Moment zur Nanotechnologie gehen.

Bild
Bild

Ein paar Worte zur Nanotechnologie

Wir nennen normalerweise Nanotechnologie-Technologien, die sich mit der Manipulation von Materie im Bereich von 1-100 Nanometern befassen. Ein Nanometer ist ein Milliardstel Meter oder ein Millionstel Millimeter; im Bereich von 1-100 Nanometern können Viren (100 nm Durchmesser), DNA (10 nm Breite), Hämoglobinmoleküle (5 nm), Glucose (1 nm) und andere aufgenommen werden. Wenn uns die Nanotechnologie jemals untertan wird, wird der nächste Schritt darin bestehen, einzelne Atome zu manipulieren, die kleiner als eine Größenordnung (~, 1 nm) sind.

Um zu verstehen, wo Menschen auf Probleme stoßen, wenn sie versuchen, Materie in einem solchen Ausmaß zu manipulieren, springen wir zu einem größeren Maßstab. Die Internationale Raumstation ISS befindet sich 481 Kilometer über der Erde. Wären Menschen Riesen und würden mit dem Kopf auf die ISS treffen, wären sie 250.000 Mal größer als heute. Wenn Sie etwas von 1 bis 100 Nanometer 250.000 Mal vergrößern, erhalten Sie 2,5 Zentimeter. Nanotechnologie ist das Äquivalent eines Menschen, der die ISS umkreist und versucht, Dinge von der Größe eines Sandkorns oder eines Augapfels zu manipulieren. Um zur nächsten Ebene zu gelangen – der Kontrolle einzelner Atome – muss der Riese Objekte mit einem Durchmesser von 1/40 Millimeter sorgfältig positionieren. Normale Menschen brauchen ein Mikroskop, um sie zu sehen.

Zum ersten Mal sprach Richard Feynman 1959 über Nanotechnologie. Dann sagte er: „Die Prinzipien der Physik sprechen, soweit ich das beurteilen kann, nicht gegen die Möglichkeit, Dinge Atom für Atom zu kontrollieren. Im Prinzip könnte ein Physiker jede Chemikalie synthetisieren, die ein Chemiker aufgeschrieben hat. Wie? Indem man Atome dort platziert, wo der Chemiker sagt, dass man die Substanz bekommen soll.“Das ist die ganze Einfachheit. Wenn Sie wissen, wie man einzelne Moleküle oder Atome bewegt, können Sie fast alles tun.

Die Nanotechnologie wurde 1986 zu einem ernsthaften wissenschaftlichen Feld, als der Ingenieur Eric Drexler ihre Grundlagen in seinem bahnbrechenden Buch Machines of Creation vorstellte, aber Drexler selbst glaubt, dass diejenigen, die mehr über moderne Ideen in der Nanotechnologie erfahren möchten, sein Buch von 2013 lesen sollten Fülle).

Ein paar Worte zu "Grey Goo"

Wir tauchen tiefer in die Nanotechnologie ein. Insbesondere das Thema „Gray Goo“gehört zu den nicht sehr erfreulichen Themen im Bereich der Nanotechnologie, die nicht ignoriert werden dürfen. Ältere Versionen der Theorie der Nanotechnologie schlugen eine Nanomontagemethode vor, die die Herstellung von Billionen winziger Nanoroboter beinhaltet, die zusammenarbeiten würden, um etwas zu erschaffen. Eine Möglichkeit, Billionen von Nanorobotern zu erstellen, besteht darin, einen zu erstellen, der sich selbst replizieren kann, dh von eins auf zwei, von zwei auf vier und so weiter. An einem Tag werden mehrere Billionen Nanoroboter erscheinen. Dies ist die Kraft des exponentiellen Wachstums. Komisch, nicht wahr?

Es ist lustig, aber genau so lange, bis es zur Apokalypse führt. Das Problem ist, dass die Kraft des exponentiellen Wachstums, die es zu einer ziemlich bequemen Möglichkeit macht, schnell eine Billion Nanobots zu erstellen, die Selbstreplikation auf lange Sicht zu einer beängstigenden Sache macht. Was ist, wenn das System abstürzt und sich Nanobots weiter vermehren, anstatt die Replikation für ein paar Billionen zu stoppen? Was ist, wenn dieser ganze Prozess von Kohlenstoff abhängt? Die Biomasse der Erde enthält 10 ^ 45 Kohlenstoffatome. Ein Nanobot sollte in der Größenordnung von 10 ^ 6 Kohlenstoffatomen sein, also werden 10 ^ 39 Nanobots in nur 130 Replikationen alles Leben auf der Erde verschlingen. Ein Ozean von Nanobots ("grey goo") wird den Planeten überfluten. Wissenschaftler glauben, dass sich Nanobots in 100 Sekunden replizieren können, was bedeutet, dass ein einfacher Fehler alles Leben auf der Erde in nur 3,5 Stunden töten kann.

Es könnte noch schlimmer kommen - wenn Terroristen und ungünstige Spezialisten in die Hände der Nanotechnologie gelangen. Sie könnten mehrere Billionen Nanobots erschaffen und sie so programmieren, dass sie sich in wenigen Wochen leise auf der ganzen Welt verbreiten. Dann essen sie auf Knopfdruck in nur 90 Minuten alles, ohne Chance.

Während diese Horrorgeschichte seit Jahren breit diskutiert wird, ist die gute Nachricht, dass es sich nur um eine Horrorgeschichte handelt. Eric Drexler, der den Begriff „Gray Goo“geprägt hat, sagte kürzlich Folgendes: „Die Leute lieben Horrorgeschichten, und dies ist eine der Zombie-Horrorgeschichten. Diese Idee an sich frisst schon Gehirne.“

Wenn wir der Nanotechnologie einmal auf den Grund gegangen sind, können wir daraus technische Geräte, Kleidung, Lebensmittel, Bioprodukte – Blutzellen, Viren- und Krebsbekämpfer, Muskelgewebe usw. – herstellen. Und in einer Welt, die Nanotechnologie verwendet, werden die Kosten eines Materials nicht mehr an seine Knappheit oder die Komplexität seines Herstellungsprozesses gebunden, sondern an die Komplexität seiner atomaren Struktur. In der Welt der Nanotechnologie könnte ein Diamant billiger sein als ein Radiergummi.

Wir sind noch nicht einmal in der Nähe. Und es ist nicht ganz klar, ob wir die Komplexität dieses Weges unter- oder überschätzen. Alles geht jedoch so weit, dass die Nanotechnologie nicht mehr weit ist. Kurzweil geht davon aus, dass wir sie in den 2020er Jahren haben werden. Die Staaten der Welt wissen, dass die Nanotechnologie eine große Zukunft verspricht und investieren deshalb viele Milliarden in sie.

Stellen Sie sich vor, welche Möglichkeiten ein superintelligenter Computer haben würde, wenn er zu einem zuverlässigen Nano-Assembler gelangen würde. Aber Nanotechnologie ist unsere Idee, und wir versuchen, sie zu reiten, es ist schwierig für uns. Was ist, wenn sie nur ein Scherz für das ISI-System sind und der ISI selbst Technologien entwickelt, die um ein Vielfaches leistungsfähiger sind als alles, was wir im Prinzip annehmen können? Wir waren uns einig: Niemand kann sich vorstellen, wozu künstliche Superintelligenz fähig sein wird? Es wird angenommen, dass unser Gehirn nicht einmal das Minimum dessen vorhersagen kann, was passieren wird.

Was könnte KI für uns tun?

Bild
Bild

Bewaffnet mit Superintelligenz und all der Technologie, die Superintelligenz schaffen könnte, wird ISI wahrscheinlich in der Lage sein, alle Probleme der Menschheit zu lösen. Globale Erwärmung? ISI wird zunächst die CO2-Emissionen stoppen, indem es eine Vielzahl effizienter Möglichkeiten zur Energieerzeugung erfindet, die nicht mit fossilen Brennstoffen verbunden sind. Er wird dann einen effektiven, innovativen Weg finden, um überschüssiges CO2 aus der Atmosphäre zu entfernen. Krebs und andere Krankheiten? Kein Problem – das Gesundheitswesen und die Medizin werden sich auf unvorstellbare Weise verändern. Welthunger? ISI wird Nanotechnologie verwenden, um Fleisch herzustellen, das mit natürlichem, von Grund auf neu hergestelltem, echtem Fleisch identisch ist.

Die Nanotechnologie wird in der Lage sein, einen Müllhaufen in einen Bottich mit frischem Fleisch oder anderen Lebensmitteln zu verwandeln (nicht unbedingt in seiner üblichen Form - stellen Sie sich einen riesigen Apfelwürfel vor) und all diese Lebensmittel mit fortschrittlichen Transportsystemen auf der ganzen Welt zu verteilen. Das ist natürlich toll für Tiere, die nicht mehr für Nahrung sterben müssen. ISI kann auch viele andere Dinge tun, wie zum Beispiel gefährdete Arten zu erhalten oder sogar ausgestorbene aus eingelagerter DNA zurückzuholen. ISI kann unsere schwierigsten makroökonomischen Probleme lösen – unsere schwierigsten Wirtschaftsdebatten, ethische und philosophische Fragen, den Welthandel – die alle für ISI schmerzlich offensichtlich sein werden.

Aber es gibt etwas ganz Besonderes, das ISI für uns tun könnte. Verführerisch und verlockend, das würde alles verändern: ISI kann uns helfen, mit der Sterblichkeit fertig zu werden … Wenn Sie nach und nach die Fähigkeiten der KI verstehen, werden Sie vielleicht alle Ihre Vorstellungen vom Tod überdenken.

Es gab keinen Grund für die Evolution, unser Leben länger zu verlängern als jetzt. Wenn wir lange genug leben, um zu gebären und Kinder aufzuziehen, bis sie für sich selbst sorgen können, reicht die Evolution aus. Aus evolutionärer Sicht reichen 30+ Jahre für die Entwicklung aus, und es gibt keinen Grund für Mutationen, das Leben zu verlängern und den Wert der natürlichen Auslese zu mindern. William Butler Yates nannte unsere Spezies "eine Seele, die an ein sterbendes Tier gebunden ist". Nicht viel Spaß.

Und da wir alle eines Tages sterben, leben wir mit der Vorstellung, dass der Tod unvermeidlich ist. Wir denken über das Altern im Laufe der Zeit nach – wir bewegen uns weiter und können diesen Prozess nicht aufhalten. Aber der Gedanke an den Tod ist tückisch: Von ihm gefangen vergessen wir zu leben. Richard Feynmann schrieb:

„Es gibt etwas Wunderbares in der Biologie: Es gibt nichts in dieser Wissenschaft, das von der Notwendigkeit des Todes sprechen würde. Wenn wir ein Perpetuum Mobile schaffen wollen, stellen wir fest, dass wir in der Physik genügend Gesetze gefunden haben, die entweder darauf hinweisen, dass dies unmöglich ist oder dass die Gesetze falsch sind. Aber es gibt nichts in der Biologie, das auf die Unvermeidlichkeit des Todes hinweisen würde. Dies lässt mich glauben, dass es nicht so unvermeidlich ist, und es ist nur eine Frage der Zeit, bis Biologen die Ursache dieses Problems, dieser schrecklichen universellen Krankheit, entdecken, wird sie geheilt.

Tatsache ist, dass das Altern nichts mit der Zeit zu tun hat. Altern ist, wenn die physischen Materialien des Körpers verschleißen. Auch Autoteile verschlechtern sich – aber ist die Alterung unvermeidlich? Wenn Sie Ihr Auto reparieren, während die Teile verschleißen, wird es ewig halten. Der menschliche Körper ist nicht anders - nur komplexer.

Kurzweil spricht über intelligente, mit WLAN verbundene Nanobots im Blutkreislauf, die unzählige Aufgaben für die menschliche Gesundheit übernehmen könnten, einschließlich der regelmäßigen Reparatur oder des Austauschs abgenutzter Zellen überall im Körper. Die Verbesserung dieses Prozesses (oder die Suche nach einer von einem intelligenteren ASI vorgeschlagenen Alternative) hält den Körper nicht nur gesund, sondern kann auch das Altern rückgängig machen. Der Unterschied zwischen dem Körper eines 60-Jährigen und eines 30-Jährigen besteht in einer Handvoll physischer Probleme, die mit der richtigen Technologie behoben werden könnten. ISI könnte ein Auto bauen, das eine Person mit 60 Jahren betritt und mit 30 Jahren verlässt.

Sogar ein degradiertes Gehirn könnte erneuert werden. Das ISI würde sicherlich wissen, wie dies zu tun ist, ohne die Gehirndaten (Persönlichkeit, Erinnerungen usw.) zu beeinträchtigen. Ein 90-jähriger Mann, der an einem vollständigen Gehirnabbau leidet, könnte sich umschulen, erneuern und an den Anfang seines Lebens zurückkehren. Es mag absurd erscheinen, aber der Körper besteht aus einer Handvoll Atome, und das ISI könnte sie sicherlich leicht manipulieren, alle atomaren Strukturen. Es ist nicht so absurd.

Auch Kurzweil glaubt, dass sich künstliche Materialien im Laufe der Zeit immer mehr in den Körper integrieren werden. Zunächst könnten die Orgeln durch hochentwickelte Maschinenversionen ersetzt werden, die ewig halten und nie versagen. Dann könnten wir ein komplettes Körper-Redesign durchführen und rote Blutkörperchen durch perfekte Nanobots ersetzen, die sich von selbst bewegen und die Notwendigkeit eines Herzens komplett überflüssig machen. Wir könnten auch unsere kognitiven Fähigkeiten verbessern, milliardenfach schneller denken und über die Cloud auf alle Informationen zugreifen, die der Menschheit zur Verfügung stehen.

Die Möglichkeiten, neue Horizonte zu begreifen, wären wirklich endlos. Die Menschen haben es geschafft, Sex mit einem neuen Zweck auszustatten, sie tun es zum Vergnügen, nicht nur zur Fortpflanzung. Kurzweil glaubt, dass wir das auch mit Lebensmitteln tun können. Nanobots könnten die Körperzellen mit idealer Nahrung direkt versorgen und ungesunde Stoffe durch den Körper passieren lassen. Der Nanotechnologie-Theoretiker Robert Freitas hat bereits einen Ersatz für Blutzellen entwickelt, der im menschlichen Körper 15 Minuten lang nicht atmen kann - und das hat ein Mensch erfunden. Stellen Sie sich vor, wann der ISI an die Macht kommt.

Schließlich glaubt Kurzweil, dass der Mensch den Punkt erreichen wird, an dem er vollständig künstlich wird; die Zeit, in der wir biologische Materialien betrachten und darüber nachdenken, wie primitiv sie waren; Zeit, in der wir über die frühen Stadien der Menschheitsgeschichte lesen und staunen, wie Keime, Unfälle, Krankheiten oder einfach das Alter einen Menschen gegen seinen Willen töten können. Letztendlich wird der Mensch seine eigene Biologie besiegen und ewig werden – das ist der Weg zur glücklichen Seite des Schwebebalkens, über den wir von Anfang an gesprochen haben. Und Menschen, die daran glauben, sind sich auch sicher, dass uns eine solche Zukunft sehr, sehr bald erwartet.

Sie werden wahrscheinlich nicht überrascht sein, dass die Ideen von Kurzweil heftige Kritik auf sich gezogen haben. Seine Einzigartigkeit im Jahr 2045 und das anschließende ewige Leben der Menschen wurde als „Aufstieg der Nerds“oder „intelligente Erschaffung von Menschen mit einem IQ von 140“bezeichnet. Andere stellten den optimistischen Zeitrahmen in Frage, das Verständnis des menschlichen Körpers und Gehirns, erinnerten an das Mooresche Gesetz, das noch nicht verschwunden ist. Auf jeden Experten, der an Kurzweils Ideen glaubt, gibt es drei, die denken, dass er falsch liegt.

Aber das Interessanteste daran ist, dass die meisten Experten, die ihm nicht zustimmen, insgesamt nicht sagen, dass dies unmöglich ist. Anstatt zu sagen "Quatsch, das wird nie passieren", sagen sie etwas wie "Das wird alles passieren, wenn wir zum ISI kommen, aber das ist das Problem." Bostrom, einer der gefeierten KI-Experten, der vor KI-Gefahren warnt, gibt auch zu:

„Es gibt kaum noch ein Problem, das die Superintelligenz nicht lösen oder uns sogar helfen kann. Krankheit, Armut, Umweltzerstörung, Leiden aller Art – all das kann Superintelligenz mit Hilfe der Nanotechnologie in einem Augenblick lösen. Superintelligenz kann uns auch eine unbegrenzte Lebensdauer geben, indem sie den Alterungsprozess mithilfe von Nanomedizin stoppt und umkehrt oder uns in die Cloud hochlädt. Superintelligenz kann auch Möglichkeiten für eine endlose Steigerung der intellektuellen und emotionalen Fähigkeiten schaffen; er kann uns helfen, eine Welt zu schaffen, in der wir in Freude und Verständnis leben, uns unseren Idealen nähern und unsere Träume regelmäßig verwirklichen."

Dies ist jedoch ein Zitat eines Kritikers von Kurzweil, der zugibt, dass all dies möglich ist, wenn wir eine sichere ASI schaffen. Kurzweil hat einfach definiert, was künstliche Superintelligenz werden soll, wenn überhaupt. Und wenn er ein guter Gott ist.

Die offensichtlichste Kritik an Komfortzonen-Befürwortern ist, dass sie verdammt falsch liegen können, wenn sie die Zukunft von ISI einschätzen. In seinem Buch The Singularity widmete Kurzweil 20 Seiten von 700 potenziellen ISI-Bedrohungen. Die Frage ist nicht, wann wir zum ISI kommen, sondern was seine Motivation sein wird. Kurzweil beantwortet diese Frage mit Vorsicht: „ISI ist das Ergebnis vieler unterschiedlicher Bemühungen und wird tief in die Infrastruktur unserer Zivilisation integriert. Tatsächlich wird es eng in unseren Körper und unser Gehirn eingebettet sein. Er wird unsere Werte widerspiegeln, denn er wird eins mit uns sein."

Aber wenn die Antwort lautet, warum machen sich so viele intelligente Menschen auf dieser Welt Sorgen um die Zukunft der künstlichen Intelligenz? Warum sagt Stephen Hawking, dass die Entwicklung von ISI "das Ende der Menschheit bedeuten könnte"? Bill Gates sagt, er verstehe "Menschen nicht, die sich nicht darum kümmern". Elon Musk befürchtet, dass wir "einen Dämon beschwören". Warum halten viele Experten den ISI für die größte Bedrohung für die Menschheit?

Darüber werden wir beim nächsten Mal sprechen.

Empfohlen: