Wissenschaftler haben Angst vor der Bedrohung durch künstliche Intelligenz

Wissenschaftler haben Angst vor der Bedrohung durch künstliche Intelligenz
Wissenschaftler haben Angst vor der Bedrohung durch künstliche Intelligenz

Video: Wissenschaftler haben Angst vor der Bedrohung durch künstliche Intelligenz

Video: Wissenschaftler haben Angst vor der Bedrohung durch künstliche Intelligenz
Video: Adolf Hitler in der Antarktis? Verschwörungstheorien über die "Führer"-Flucht | SPIEGEL TV 2024, April
Anonim

Eine sich selbst verbessernde künstliche Intelligenz (KI) kann in Zukunft Menschen versklaven oder töten, wenn er will. Dies sagte der Wissenschaftler Amnon Eden, der die Risiken durch die Entwicklung eines freidenkenden und hochintelligenten Bewusstseins für sehr hoch hält, und "wenn man sich nicht schon im aktuellen Stadium der KI-Steuerung um die Themen kümmert" Entwicklung, dann kommt morgen vielleicht einfach nicht." Laut der englischen Express-Ausgabe befindet sich die Menschheit laut Amnon Eden heute am "Point of no return" für die Umsetzung der Handlung des berühmten Filmepos "The Terminator".

Es ist erwähnenswert, dass Dr. Amnon Eden eine Projektleiterin ist, deren Hauptziel es ist, die möglichen verheerenden Auswirkungen von KI zu analysieren. Ohne ein richtiges Verständnis der Folgen der Schaffung künstlicher Intelligenz kann ihre Entwicklung mit einer Katastrophe drohen, glaubt der Wissenschaftler. Derzeit ist unsere Gesellschaft über die in der wissenschaftlichen Community geführte Debatte um die Analyse möglicher Auswirkungen von KI schlecht informiert. „Im kommenden 2016 muss die Analyse möglicher Risiken im Denken von Konzernen und Regierungen, Politikern und Entscheidungsträgern deutlich breiter werden“, sagt Eden.

Der Wissenschaftler ist sich sicher, dass Science-Fiction, die die Zerstörung der Menschheit durch Roboter beschreibt, bald unser gemeinsames Problem werden könnte, da der Prozess der KI-Erstellung außer Kontrolle geraten ist. Zum Beispiel beschloss Elon Musk mit Unterstützung des Unternehmers Sam Altman, eine neue gemeinnützige Organisation im Wert von 1 Milliarde US-Dollar zu gründen, die Open-Source-KI entwickelt, die den menschlichen Verstand übertreffen soll. Gleichzeitig zählt der US-Milliardär Elon Musk selbst künstliche Intelligenz zu den "größten Bedrohungen unserer Existenz". Steve Wozniak, Mitbegründer von Apple, sagte im vergangenen März, dass „die Zukunft für die Menschen entmutigend und sehr gefährlich aussieht … irgendwann wird der Tag kommen, an dem Computer schneller denken als wir und langsame Menschen loswerden, um sie damit Unternehmen effizienter arbeiten können.“

Bild
Bild

Es ist erwähnenswert, dass viele Wissenschaftler die Bedrohung durch KI sehen. Dutzende namhafter Wissenschaftler, Investoren und Unternehmer, deren Aktivitäten auf die eine oder andere Weise mit der Entwicklung künstlicher Intelligenz zu tun haben, haben einen offenen Brief unterzeichnet, in dem sie mehr Aufmerksamkeit für das Thema Sicherheit und sozialer Nutzen der Arbeit in der Bereich der KI. Der Astrophysiker Stephen Hawking und der Gründer von Tesla und SpaceX Elon Musk gehören zu den Unterzeichnern dieses Dokuments. Der Brief zusammen mit einem Begleitdokument, das vom Future of Life Institute (FLI) verfasst wurde, entstand inmitten wachsender Besorgnis über die Auswirkungen der künstlichen Intelligenz auf den Arbeitsmarkt und sogar das langfristige Überleben der gesamten Menschheit in einem Umgebung, in der die Fähigkeiten von Robotern und Maschinen nahezu unkontrolliert wachsen.

Wissenschaftler wissen, dass das Potenzial der KI heute sehr groß ist, daher ist es notwendig, die Möglichkeiten ihrer optimalen Nutzung für uns vollständig zu untersuchen, um die damit verbundenen Fallstricke zu vermeiden, heißt es im FLI-Brief. Es ist zwingend erforderlich, dass von Menschen geschaffene KI-Systeme genau das tun, was wir von ihnen erwarten. Es ist erwähnenswert, dass das Future of Life Institute erst letztes Jahr von einer Reihe von Enthusiasten gegründet wurde, darunter der Schöpfer von Skype, Jaan Tallinn, um „die Risiken für die Menschheit zu minimieren“und die Forschung mit einer „optimistischen Vision“anzuregen der Zukunft . Wir sprechen hier zunächst über die Risiken, die durch die Entwicklung von KI und Robotik entstehen. Dem FLI-Beirat gehören Musk und Hawking sowie der gefeierte Schauspieler Morgan Freeman und andere berühmte Persönlichkeiten an. Laut Elon Musk ist die unkontrollierte Entwicklung künstlicher Intelligenz potenziell gefährlicher als Atomwaffen.

Der berühmte britische Astrophysiker Stephen Hawking versuchte Ende 2015, seine Ablehnung von KI-Technologien zu erklären. Seiner Meinung nach werden superintelligente Maschinen den Menschen im Laufe der Zeit als Verbrauchsmaterial oder Ameisen betrachten, die die Lösung ihrer Aufgaben einfach stören. Im Gespräch mit Benutzern des Reddit-Portals stellte Stephen Hawking fest, dass er nicht glaubt, dass solche superintelligenten Maschinen "böse Kreaturen" sein werden, die aufgrund ihrer intellektuellen Überlegenheit die gesamte Menschheit zerstören wollen. Höchstwahrscheinlich wird es möglich sein, darüber zu sprechen, dass sie die Menschheit einfach nicht bemerken.

Bild
Bild

„Die Medien haben meine Worte in letzter Zeit ständig verfälscht. Das Hauptrisiko bei der Entwicklung von KI ist nicht die Bosheit der Maschinen, sondern deren Kompetenz. Superintelligente künstliche Intelligenz wird hervorragende Arbeit leisten, aber wenn sie und unsere Ziele nicht übereinstimmen, wird die Menschheit sehr ernste Probleme bekommen “, erklärt der berühmte Wissenschaftler. Als Beispiel nannte Hawking eine hypothetische Situation, in der eine superstarke KI für den Betrieb oder den Bau eines neuen Wasserkraftwerks verantwortlich ist. Für eine solche Maschine hat die Priorität, wie viel Energie das anvertraute System erzeugt, und das Schicksal der Menschen spielt keine Rolle. „Es gibt nur wenige von uns, die aus Wut auf Ameisenhaufen herumtrampeln und auf Ameisen treten, aber stellen wir uns eine Situation vor: Sie steuern ein leistungsstarkes Wasserkraftwerk, das Strom erzeugt. Wenn Sie den Wasserstand erhöhen müssen und durch Ihre Handlungen ein Ameisenhaufen überflutet wird, werden Sie die Probleme des Ertrinkens von Insekten wahrscheinlich nicht stören. Lassen Sie uns Menschen nicht an die Stelle von Ameisen setzen “, sagte der Wissenschaftler.

Das zweite potenzielle Problem für die Weiterentwicklung der Künstlichen Intelligenz, so Hawking, könnte die „Tyrannei der Maschinenbesitzer“sein – das rapide Anwachsen der Einkommensunterschiede zwischen reichen Leuten, die die Produktion monopolisieren können intelligenter Maschinen und der Rest der Weltbevölkerung. Stephen Hawking schlägt vor, diese möglichen Probleme auf folgende Weise zu lösen - den Prozess der KI-Entwicklung zu verlangsamen und auf die Entwicklung nicht "universeller", sondern hochspezialisierter künstlicher Intelligenz umzusteigen, die nur ein sehr begrenztes Spektrum an Problemen lösen kann.

Neben Hawking und Musk wurde der Brief vom Nobelpreisträger und MIT-Physikprofessor Frank Wilczek, dem geschäftsführenden Direktor des Machine Intelligence Research Institute (MIRI) Luc Mühlhauser sowie vielen Spezialisten großer IT-Unternehmen unterzeichnet: Google, Microsoft und IBM, sowie Unternehmer, die die KI-Unternehmen Vicarious und DeepMind gegründet haben. Die Autoren des Briefes weisen darauf hin, dass sie nicht darauf abzielen, die Öffentlichkeit zu erschrecken, sondern sowohl die positiven als auch die negativen Aspekte hervorzuheben, die mit der Schaffung von künstlicher Intelligenz verbunden sind. „Derzeit sind sich alle einig, dass die Forschung auf dem Gebiet der KI stetig voranschreitet und der Einfluss der KI auf die moderne menschliche Gesellschaft nur noch zunehmen wird“, heißt es in dem Brief, „die Möglichkeiten, die sich dem Menschen eröffnen, sind enorm, alles, was die moderne Zivilisation“zu bieten hat, wurde von Intelligenz geschaffen. Wir können nicht vorhersagen, was wir erreichen können, wenn die menschliche Intelligenz durch KI vervielfacht werden kann, aber das Problem, Armut und Krankheit loszuwerden, ist nicht mehr unendlich schwierig.

Bild
Bild

Zahlreiche Entwicklungen im Bereich der künstlichen Intelligenz sind bereits im modernen Leben enthalten, darunter Bild- und Spracherkennungssysteme, unbemannte Fahrzeuge und vieles mehr. Beobachter aus dem Silicon Valley schätzen, dass derzeit mehr als 150 Startups in diesem Bereich umgesetzt werden. Gleichzeitig ziehen Entwicklungen in diesem Bereich immer mehr Investitionen an und immer mehr Unternehmen wie Google entwickeln ihre Projekte auf Basis von KI. Die Verfasser des Briefes sind daher der Meinung, dass es an der Zeit ist, allen möglichen Folgen des beobachteten Booms für die wirtschaftlichen, sozialen und rechtlichen Aspekte des menschlichen Lebens mehr Aufmerksamkeit zu schenken.

Die Position, dass künstliche Intelligenz eine Gefahr für den Menschen darstellen kann, teilt Nick Bostrom, Professor an der Universität Oxford, der für seine Arbeiten zum anthropischen Prinzip bekannt ist. Der Spezialist glaubt, dass die KI an einem Punkt angekommen ist, auf den ihre Unverträglichkeit mit dem Menschen folgen wird. Nick Bostrom betont, dass im Gegensatz zu Gentechnik und Klimawandel, für die die Regierungen ausreichende Mittel zur Kontrolle bereitstellen, "nichts unternommen wird, um die Entwicklung der KI zu kontrollieren". In Bezug auf Künstliche Intelligenz werde derzeit eine "Politik eines zu füllenden Rechtsvakuums" verfolgt, so der Professor. Auch Technologien wie selbstfahrende Autos, die harmlos und nützlich erscheinen, werfen eine Reihe von Fragen auf. Muss ein solches Auto beispielsweise eine Notbremsung durchführen, um seine Insassen zu retten, und wer haftet bei einem Unfall mit einem unbemannten Fahrzeug?

In Bezug auf die potenziellen Risiken stellte Nick Bostrom fest, dass "der Computer nicht in der Lage ist, Nutzen und Schaden für den Menschen zu bestimmen" und "nicht einmal die leiseste Vorstellung von der menschlichen Moral hat". Zudem können Selbstverbesserungszyklen in Computern mit einer solchen Geschwindigkeit ablaufen, dass ein Mensch einfach nicht den Überblick behalten kann, und auch daran lässt sich so gut wie nichts ändern, sagt der Wissenschaftler. „In der Entwicklungsphase, in der Computer selbst denken können, kann niemand mit Sicherheit vorhersagen, ob dies zu Chaos führt oder unsere Welt wesentlich verbessert“, nennt Nick Bostrom als Beispiel eine einfache mögliche Lösung für einen Computer – das Herunterfahren in Ländern mit kalter Klimaerwärmung, um die Gesundheit der Menschen zu verbessern und ihre Ausdauer zu erhöhen, was "an die Spitze der künstlichen Intelligenz kommen kann".

Bild
Bild

Darüber hinaus wirft Bostrom auch das Problem auf, das menschliche Gehirn zu chippen, um unsere Biointelligenz zu erhöhen. „Ein solches Vorgehen kann in vielerlei Hinsicht sinnvoll sein, wenn alle Prozesse kontrolliert werden, aber was passiert, wenn sich der implantierte Chip selbst umprogrammieren kann? Zu welchen Konsequenzen kann dies führen – zur Entstehung eines Übermenschen oder zur Entstehung eines Computers, der nur noch wie ein Mensch aussehen wird? - fragt der Professor. Die Art und Weise, wie Computer menschliche Probleme lösen, unterscheidet sich stark von unserer. Beim Schach beispielsweise berücksichtigt das menschliche Gehirn nur eine begrenzte Anzahl von Zügen und wählt daraus die beste Option aus. Der Computer berücksichtigt wiederum alle möglichen Züge und wählt den besten aus. Gleichzeitig erwartet der Computer nicht, seinen Gegner im Spiel zu verärgern oder zu überraschen. Im Gegensatz zu einem Menschen, der Schach spielt, kann ein Computer nur zufällig einen listigen und subtilen Zug ausführen. Künstliche Intelligenz kann am besten rechnen – um den Fehler von jedem System zu beseitigen, indem der "menschliche Faktor" von dort entfernt wird, aber im Gegensatz zu einem Menschen ist ein Roboter nicht bereit, Kunststücke zu vollbringen, die Menschenleben retten würden.

Unter anderem ist der Anstieg der Zahl intelligenter Maschinen die Bühne einer neuen industriellen Revolution. Dies bedeutet wiederum, dass die Menschheit in naher Zukunft mit unvermeidlichen sozialen Veränderungen konfrontiert sein wird. Im Laufe der Zeit wird die Arbeit zum Los hochqualifizierter Spezialisten, da fast alle einfachen Aufgaben von Robotern und anderen Mechanismen übernommen werden können. Wissenschaftler glauben, dass künstliche Intelligenz "ein Auge und ein Auge braucht", damit sich unser Planet nicht in einen Cartoon-Planeten "Zhelezyaka" verwandelt, der von Robotern bewohnt wurde.

In Bezug auf die zunehmende Automatisierung von Produktionsprozessen ist die Zukunft bereits angekommen. Das Weltwirtschaftsforum (WEF) hat seinen Bericht vorgelegt, wonach die Automatisierung dazu führen wird, dass bis 2020 mehr als 5 Millionen Menschen in verschiedenen Bereichen ihren Arbeitsplatz verlieren werden. Dies ist der Einfluss von Robotern und Robotersystemen auf unser Leben. Für die Erstellung des Berichts nutzten WEF-Mitarbeiter Daten von 13,5 Millionen Mitarbeitern weltweit. Demnach wird bis 2020 der Gesamtbedarf an mehr als 7 Millionen Arbeitsplätzen wegfallen, während das erwartete Beschäftigungswachstum in anderen Branchen etwas mehr als 2 Millionen betragen wird.

Empfohlen: