Es bedarf Regeln um künstliche Intelligenz einzusetzen, fordern inzwischen Forscher

Künstliche Intelligenz – Nachdem der selbstlernende Supercomputer AlphaGo überraschenderweise einen Menschen im Spiel Go geschlagen hat, sind zwei Forscher der University of Sydney besorgt ob der Fähigkeiten, die Künstliche Intelligenzen entwickeln könnten und schlagen in diesem Zusammenhang Verhaltensweisen im Umgang mit Künstlicher Intelligenz vor

Bei der Schaffung von Künstlicher Intelligenz will die Informatik menschenähnliche Intelligenz nachzubilden, in dem Computer mit Algorithmen so programmiert werden, dass sie eigenständig Probleme bearbeiten können. Schon seit der Renaissance, als der Humunculus, ein maschinenartiger, seelenloser Mensch, in der Literatur sein Unwesen trieb, und dann besonders im 20. Jahrhundert mit der literarisch-filmischen Erschaffung von Frankenstein und Co. ist dies ein auch die Allgemeinheit erfassendes Gruselthema, das bislang eher in den Bereich Sience Fiction abgeschoben wurde.

Mitnichten finden Wissenschaftler. Der kürzliche Sieg des Supercomputers AlphaGo über Weltmeister Lee Sedol im Spiel Go veranlasst zwei Experten von selbstlernenden Maschinen der University of Sydney dazu, eine Warnung für den Umgang mit Künstlicher Intelligenz zu formulieren.

Warnung

Sie appellieren, dass Künstliche Intelligenz unter allen Umständen unter menschlicher Kontrolle gehalten werden muss, da die Menschheit sonst in Zukunft machtlos den Fähigkeiten Künstlicher Intelligenz gegenüberstehen könnte und Terminatoren aus Science Fiction Filmen nicht mehr nur Fiktion bleiben.

Professor Dong Xu, Vorsitzender der Abteilung Computer Engineering an der University of Sydney, betont, dass die Niederlage des Weltmeisters neue Bedenken bezüglich der Zukunft von Maschinen mit Künstlicher
Intelligenz hervorgebracht haben.

Zuvor galt das Spiel Go als zu komplex für Computer, doch der Sieg zeigt, dass Supercomputer mittlerweile in der Lage sind, sich stetig weiterzuentwickeln und sich durch detailreiche Analysen eigenständig optimieren können. Deshalb beschäftigt sich Professor Dong Xu mit der Frage, in wie weit die Fähigkeit des Selbstlernens von Künstlicher Intelligenz kontrolliert werden muss.

Industrie produziert Nachfrage

Zur Zeit sind Maschinen mit Künstlicher Intelligenz besonders in der Industrie gefragt, denn sie können als menschliche Stellvertreter der Öffentlichkeit nützlich sein. Sie können putzen, auf dem Feld arbeiten,
oder Forschungen tief unter der Erde durchführen. Gefährlich wird es jedoch, wenn ein Supercomputer auch Fähigkeiten, wie Emotionen, dazulernt und damit unberechenbar wird.

Professor Xu rät deshalb, dass Unternehmen, wie Google und Facebook, „moralische und ethische Kommittees“ einrichten, um sicherzustellen, dass die Forschung nicht in eine falsche Richtung führt und Maschinen erschafft, die sich bösartig verhalten.

Dr. Michael Harre, der jahrelang die Künstliche Intelligenz AlphaGos studiert hat, betont ebenfalls, dass sich die Technologie so weit entwickelt hat, dass sie nun das menschliche Gehirn sowohl in einfachen, als auch komplexen Aufgaben überlisten kann. Dies sei ein Grund zur Sorge, denn die Gefahr besteht, dass sich der Einsatz von Künstlicher Intelligenz zukünftig in den Verteidigungs- und Sicherungssektor verschieben könnte und der Mensch in der Kontrollschleife keine Rolle mehr spielt.

Über den Autor

Frank Tetzel ist Chefredakteur von FAIReconomics. Seine Schwerpunkte liegen auf den Themen: Energie, Mobilität, Tourismus, Arbeit und Stadt der Zukunft.

Ähnliche Beiträge

Nun liegen das Angebot auf dem Tisch, dabei hatte sich die Signa Holding von René Benko offiziell...

Der österreichische Milliardär René Benko scheint nicht locker zu lassen. Insidern zu Folge...

Sie wird so strikt dementiert, doch je mehr Auskünfte verweigert werden, desto mehr schießen...

Antworten