21.5 C
Berlin
Dienstag, Juni 6, 2023

Warum KI niemals die Welt dominieren wird

[ad_1]

Nennen Sie es die Skynet-Hypothese, künstliche allgemeine Intelligenz oder den Aufstieg der Singularität – jahrelang haben KI-Experten und Nicht-Experten gleichermaßen den Aufstieg der Singularität befürchtet (und für eine kleine Gruppe gefeiert) Idee, dass künstliche Intelligenz eines Tages könnte schlauer werden als Menschen.

Der Theorie zufolge werden Fortschritte in der KI – insbesondere die Art des maschinellen Lernens, das neue Informationen aufnehmen und seinen Code entsprechend umschreiben kann – schließlich die Wetware des biologischen Gehirns einholen. Bei dieser Interpretation von Ereignissen rückt jede KI vor Achtung– IBM-Maschinen, die das massive KI-Sprachmodell GPT-3 gewinnen, bringen die Menschheit näher an eine existenzielle Bedrohung. Wir bauen buchstäblich unsere bald empfindungsfähigen Nachfolger auf.

Nur dass das nie passieren wird. Zumindest, so die Autoren des neuen Buches Warum Maschinen niemals die Welt dominieren werden: Furchtlose künstliche Intelligenz.

Co-Autoren Professor für Philosophie an der University at Buffalo Barry Smith und Jobst Landgrebe, Gründer des deutschen KI-Unternehmens Cognotekt, behaupten, dass die menschliche Intelligenz in absehbarer Zeit nicht von „einem unsterblichen Diktator“ übertroffen werden wird – oder jemals. Sie sagten Digitale Trends ihre Gründe dafür.

Bild, das KI darstellt, mit Neuronen, die sich aus dem humanoiden Kopf verzweigen

Digital Trends (DT): Wie ist dieses Thema auf Ihren Radar gekommen?

Jobst Landgrebe (JL): Ich bin ausgebildeter Arzt und Biochemiker. Zu Beginn meiner Karriere habe ich Experimente durchgeführt, die viele Daten generiert haben. Ich habe angefangen, Mathematik zu studieren, um diese Daten interpretieren zu können, und ich habe gesehen, wie schwierig es ist, biologische Systeme mathematisch zu modellieren. Es gab schon immer diese Diskrepanz zwischen mathematischen Methoden und biologischen Daten.

Mit Mitte dreißig verließ ich die Wissenschaft und wurde Unternehmensberater und Unternehmer, der sich mit Softwaresystemen für künstliche Intelligenz beschäftigte. Ich habe versucht, KI-Systeme zu bauen, die das nachahmen, was Menschen tun können. Mir wurde klar, dass ich das gleiche Problem hatte, das ich Jahre zuvor in der Biologie hatte.

Kunden sagten zu mir: „Warum bauen Sie keine Chatbots?“ Ich sagte, ‘weil sie nicht funktionieren; Wir können diese Art von System nicht richtig modellieren. Das hat mich letztendlich dazu bewogen, dieses Buch zu schreiben.

Professor Barry Smith (BS): Ich fand das ein sehr interessantes Problem. Ich hatte bereits Ideen zu ähnlichen Problemen mit KI, habe aber nie darüber nachgedacht. Zunächst schrieben wir einen Artikel mit dem Titel „Der künstlichen Intelligenz einen Sinn geben.’ (Das war während der Trump-Zeit.) Es ging darum, warum neuronale Netze bei der Sprachmodellierung versagen. Dann haben wir uns entschieden, den Artikel zu einem Buch zu erweitern, in dem wir uns eingehender mit diesem Thema befassen.

DT: Ihr Buch drückt Skepsis darüber aus, wie neuronale Netze, die für modernes Deep Learning von entscheidender Bedeutung sind, das menschliche Gehirn nachahmen. Sie sind eher Annäherungen als genaue Modelle der biologischen Gehirnfunktion. Aber akzeptieren Sie die grundlegende Prämisse, dass es möglich ist, dass, wenn wir das Gehirn in ausreichendem Detail verstehen, es künstlich reproduziert werden könnte – und dass dies zu Intelligenz oder Empfindungsfähigkeit führen würde?

J L: Der Name „neuronales Netzwerk“ ist eine völlige Fehlbezeichnung. Die neuronalen Netze, die wir derzeit haben, selbst die ausgereiftesten, haben nichts mit der Funktionsweise des Gehirns zu tun. Die Vorstellung, dass das Gehirn eine Reihe miteinander verbundener Knoten in der Art und Weise ist, wie neuronale Netze aufgebaut sind, ist völlig naiv.

Wenn Sie sich die primitivste Bakterienzelle ansehen, verstehen wir noch nicht einmal, wie sie funktioniert. Wir verstehen einige seiner Aspekte, aber wir haben kein Modell dafür, wie es funktioniert – geschweige denn ein Neuron, das viel komplizierter ist, oder Milliarden miteinander verbundener Neuronen. Ich glaube, es ist wissenschaftlich unmöglich zu verstehen, wie das Gehirn funktioniert. Wir können nur bestimmte Aspekte verstehen und mit diesen Aspekten umgehen. Wir haben kein vollständiges Verständnis davon, wie das Gehirn funktioniert, und wir werden es auch nicht bekommen.

Wenn wir vollständig verstehen würden, wie jedes Molekül im Gehirn funktioniert, könnten wir es wahrscheinlich replizieren. Es wäre, als würde man alles in mathematische Gleichungen stecken. Dann können Sie das mit einem Computer replizieren. Das Problem ist einfach, dass wir diese Gleichungen nicht schreiben und erstellen können.

kopfprofil auf computerchip künstliche intelligenz
Numerisches Trenddiagramm

SB: Viele der interessantesten Dinge auf der Welt geschehen auf einer Granularitätsebene, der wir uns nicht nähern können. Wir haben einfach nicht die bildgebende Ausrüstung, und wir werden wahrscheinlich nie die bildgebende Ausrüstung haben, um das meiste, was auf den sehr feinen Ebenen des Gehirns vor sich geht, einzufangen.

Das bedeutet, dass wir zum Beispiel nicht wissen, was für das Bewusstsein verantwortlich ist. Tatsächlich gibt es eine Reihe ziemlich interessanter philosophischer Probleme, die je nach der Methode, der wir folgen, immer unlösbar sein werden – und deshalb sollten wir sie einfach ignorieren.

Eine andere ist die Willensfreiheit. Wir sind sehr stark dafür, dass Menschen einen Willen haben; wir können Absichten, Ziele usw. Aber wir wissen nicht, ob es freier Wille ist oder nicht. Das ist eine Frage, die mit der Physik des Gehirns zu tun hat. Soweit wir Beweise haben, können Computer keinen Willen haben.

DT: Der Untertitel des Buches lautet „Fearless Artificial Intelligence“. Welche konkrete Angst meinst du?

SB: Dies wurde durch die Singularitätsliteratur angeregt, von der ich weiß, dass Sie damit vertraut sind. Nick Bostrom, David Chalmers, Elon Musk usw. Als wir uns mit unseren Kollegen aus der realen Welt unterhielten, wurde uns klar, dass es in der Bevölkerung tatsächlich eine gewisse Befürchtung gab, dass die KI irgendwann die Macht übernehmen und die Welt auf Kosten der Menschen verändern würde.

Wir haben in dem Buch viel über Argumente vom Bostrum-Typ. Das zentrale Argument dagegen lautet: Wenn die Maschine keinen Willen haben kann, dann kann sie auch keinen bösen Willen haben. Ohne bösen Willen gibt es nichts zu befürchten. Jetzt können wir natürlich immer noch Angst vor Maschinen haben, genauso wie wir Angst vor Waffen haben können.

Aber das liegt daran, dass die Maschinen von Menschen mit schlechten Absichten betrieben werden. Aber dann ist es nicht die KI, die schlecht ist; Das sind die Leute, die die KI bauen und programmieren

DT: Warum interessiert diese Vorstellung von Singularität oder allgemeiner künstlicher Intelligenz die Menschen so sehr? Ob sie Angst davor haben oder davon fasziniert sind, es gibt etwas an dieser Idee, das bei den Menschen auf allgemeiner Ebene Anklang findet.

J L: Es gibt diese Idee, die zu Beginn des 19. Jahrhunderts begann und dann von Nietzsche am Ende dieses Jahrhunderts erklärt wurde, dass Gott tot ist. Da die Eliten unserer Gesellschaft keine Christen mehr sind, brauchten sie einen Ersatz. Max Stirner, der wie Karl Marx ein Schüler Hegels war, schrieb darüber ein Buch mit den Worten: „Ich bin mein eigener Gott.

Wenn du Gott bist, willst du auch ein Schöpfer sein. Wenn Sie eine Superintelligenz erschaffen könnten, dann sind Sie wie Gott. Ich denke, das hat mit den hypernarzisstischen Tendenzen in unserer Kultur zu tun. Wir sprechen in dem Buch nicht darüber, aber das erklärt mir, warum diese Idee in unserer Zeit so attraktiv ist, da es keine transzendente Entität mehr gibt, an die man sich wenden kann.

gehirn mit computer künstlicher intelligenz scrolltext
Chris DeGraw/Digitale Trends, Getty Images

DE: Interessant. Um dem nachzugehen, ist die Idee, dass die Schaffung von KI – oder das Ziel der Schaffung von KI – ein narzisstischer Akt ist. In diesem Fall ist das Konzept, dass diese Schöpfungen irgendwie mächtiger werden würden als wir, eine alptraumhafte Wendung. Es ist das Kind, das die Eltern tötet.

J L: Ein bisschen so, ja.

DT: Was wäre für Sie das Endergebnis Ihres Buches, wenn alle von Ihren Argumenten überzeugt wären? Was würde das für die Zukunft der KI-Entwicklung bedeuten?

J L: Das ist eine sehr gute Frage. Ich kann Ihnen genau sagen, was meiner Meinung nach passieren würde – und passieren wird. Ich denke, mittelfristig werden die Leute unsere Argumente akzeptieren, und das wird eine bessere angewandte Mathematik schaffen.

Alle großen Mathematiker und Physiker sind sich der Grenzen dessen bewusst, was sie mathematisch erreichen können. Weil sie sich dessen bewusst sind, konzentrieren sie sich nur auf bestimmte Themen. Wenn man sich der Grenzen bewusst ist, dann bereist man die Welt und sucht diese Probleme und löst sie. So fand Einstein die Gleichungen der Brownschen Bewegung; wie er zu seinen Relativitätstheorien kam; wie Planck die Schwarzkörperstrahlung löste und damit die Quantentheorie der Materie begründete. Sie hatten ein gutes Gespür dafür, welche Probleme mathematisch gelöst werden konnten und welche nicht.

Wenn Menschen die Botschaft unseres Buches verstehen, glauben wir, dass sie in der Lage sein werden, bessere Systeme zu entwerfen, weil sie sich auf das konzentrieren, was wirklich machbar ist – und aufhören, Geld und Mühe für etwas zu verschwenden, das nicht realisiert werden kann.

BS: Ich denke, ein Teil der Botschaft kommt bereits an, nicht aufgrund dessen, was wir sagen, sondern aufgrund der Erfahrungen, die Menschen machen, wenn sie große Geldsummen für KI-Projekte geben und dann die Projekte der KI scheitern. Ich nehme an, Sie kennen das Joint Center for Artificial Intelligence. Ich erinnere mich nicht mehr an die genaue Summe, aber ich glaube, es waren ungefähr 10 Milliarden Dollar, die sie einem berühmten Unternehmer gaben. Am Ende haben sie nichts davon. Sie haben den Vertrag gekündigt.

(Anmerkung des Herausgebers: JAIC, eine Unterabteilung der US-Streitkräfte, sollte im Juni dieses Jahres mit zwei weiteren Büros die „Bereitstellung und Einführung von KI für groß angelegte Missionen“ beschleunigen. JAIC hörte auf, als separates Büro zu existieren Einheit.)

DT: Was ist Ihrer Meinung nach im Allgemeinen das überzeugendste Argument, das Sie in dem Buch vorbringen?

BS: Jedes KI-System ist mathematischer Natur. Da wir Bewusstsein, Willen oder Intelligenz nicht mathematisch modellieren können, können diese nicht maschinell nachgebildet werden. Maschinen werden also nicht intelligent, geschweige denn superintelligent.

J L: Die Struktur unseres Gehirns lässt nur begrenzt Modelle der Natur zu. In der Physik wählen wir eine Teilmenge der Realität, die unseren mathematischen Modellierungsfähigkeiten entspricht. So kamen Newton, Maxwell, Einstein oder Schrödinger zu ihren berühmten und schönen Modellen. Aber diese können nur eine kleine Menge von Systemen beschreiben oder vorhersagen. Unsere besten Modelle sind diejenigen, die wir verwenden, um die Technologie zu entwerfen. Wir sind nicht in der Lage, ein vollständiges mathematisches Modell der belebten Natur zu erstellen.

Dieses Interview wurde aus Gründen der Länge und Klarheit bearbeitet.

Empfehlungen der Redaktion











[ad_2]

Source

- Advertisement -
- Advertisement -