Adrian Locher

KI Visionär und Unternehmer

WLAD Cover Adrian Locher

Was wäre, wenn Maschinen eine eigene Intuition entwickeln?

With love and data Podcast Episode #060

Adrian Locher hat seine Rolle zwischen Technologie und Business gefunden. Mit Merantix führt er erfolgreich sein 10. Unternehmen und entwickelt KI-Geschäftsmodelle.

In dieser Episode diskutieren wir mit ihm, ob künstliche Intelligenz wirklich eine eigene Intuition entwickeln kann und inwiefern durch mehr Technologie eine bessere Humanität entsteht.

 

„Wenn wir jetzt hier von der Super-AI sprechen, dann glaube ich, wird das zuerst ein Mensch mit Maschine als eine Maschine alleine sein.”

Der Mensch hat verschiedenste Technologien schon immer genutzt, um sich selbst zu erweitern und besser zu werden. Adrian glaubt nicht daran, dass Technologie und maschinellen Möglichkeiten die menschlichen Fähigkeiten überlegen werden oder gar den Menschen übernehmen.

„Typischerweise ist der Mensch [...] ja immer Maschinen sehr überlegen, wenn es darum geht Probleme zu lösen, die er zum ersten mal sieht. Weil er in der Lage ist, aufgrund von anderen Erfahrungen, Dinge auf eine Metaebene zu abstrahieren und daraus basierend dann wiederum Entscheidungs-Formeln abzuleiten, mit denen er eben auch ein neues, ihm bisher unbekanntes Problem lösen kann.“

Er sieht diesen Bereich eher als Angst der Menschen, wie ihnen die Technologie über den Kopf wachsen könnte. Dabei sind wir schon seit Jahrzehnten von ständig wachsenden Entwicklungen umgeben. Technologien, die in der Vergangenheit für uns schwer zu begreifen waren, sind heute für uns alltäglich geworden. Würden wir nicht quasi alle als Superintelligenz gelten, für eine Person aus dem Mittelalter?

„Warum glauben wir Menschen denn, dass wir das Ende der Evolution sein sollen? Warum glauben wir dass wir die am weitesten weiterentwickelte Spezies für immer bleiben sollen?”

 

Kann künstliche Intelligenz irgendwann eine eigene Intuition entwickeln?

Technologien, die bestimmte Risiken mit sich bringen, müssen vorausschauend gemanagt werden, da sonst neue Probleme entstehen können. Adrian sieht als besonders wichtigen Punkt, dass die Menschen weiterhin die Technologie beherrschen und beherrschbar machen, indem sie immer neue Technologien entwickeln. 

Zur Verdeutlichung zieht er den Vergleich zum Umgang mit Feuer: “Feuer war am Anfang ein Element, was der Mensch nur sehr schwer kontrollieren konnte. [...] Und irgendwann hat man gemerkt man muss halt [etwas] machen, um mit Feuer auch besser umgehen zu können und plötzlich wurde es deutlich weniger zerstörerisch.”

Dabei ist es wichtig zu verstehen, dass das Element Feuer einen bestimmten Intend besitzt: Nämlich den zu wachsen und sich auszubreiten. Das Feuer kann diese Absicht nicht ändern und in keinster Weise bewusst zu etwas anderem korrelieren. 

Ziehen wir nun diesen Vergleich mit künstlicher Intelligenz: Welchen Intend besitzt eine KI?

Das, was Machine Learning zum jetzigen Stand kann, ist von Menschen zu lernen, Dinge zu adaptieren und dann selbst diese Dinge zu machen. Eine Technologie hat bisher keine eigenen Intentionen entwickelt, die über die von uns definierten Funktionen hinausgehen.

Doch wenn wir von selbstlernenden Systemen sprechen, können dann nicht die Systeme ihre Ziele selbst ändern? Und genau hier befinden wir uns am ausschlaggebenden Tipping-Point, vor dem viele Menschen Angst haben. Die Verselbstständigung des Intends – Sprich: sobald eine KI nicht mehr dressiert wird, sondern sie selbst entscheidet sich umzubauen um die Motivation und Gewinnfunktion zu ändern.

 

“Eine Superintelligenz ist im Prinzip dann eine Superintelligenz, wenn ich nicht mehr nachvollziehen kann wie sie funktioniert.”

Doch durch Human Augmentation entdecken wir stetig neue Technologien. Wir entwickeln uns als Mensch, unter Zuhilfenahme von maschinellen Möglichkeiten, immer weiter bis die Technologien wieder beherrschbar werden.

Entsteht durch mehr Technologie eine bessere Humanität?

Adrian nennt dazu das Beispiel des Klimawandels. Er ist davon überzeugt, dass Technologie der Schlüssel für die Gesellschaft ist, mit dem wir uns weiterentwickeln und unsere selbst erschaffenen Challenges meistern können. 

Dabei handelt es sich um unterschiedliche Dimensionen: Zum einen können Technologien entwickelt werden, die die Auswirkungen messbar machen und somit in der Gesellschaft die richtige Awareness schaffen. 

Das kann wiederum die Menschen dazu bringen, ihr Verhalten zu überdenken und nachhaltig zu ändern. Aber das eigentliche Problem ist dadurch noch nicht gelöst. Die Richtung ist klar. Das Problem muss fundamentaler gelöst werden – hier kommt die Technologie erneut ins Spiel, die vielleicht bisher noch unrealistisch erscheint. 

Ein großer Teil des CO2 Footprints ist unsere Ernährung und die entsprechende Produktion. Was passiert, wenn wir anfangen, beispielsweise Dinge durch künstliche Proteine zu ersetzen? 

Hier handelt es sich tatsächlich um ein Daten-Thema im Bereich von Enzym- und Protein-Verbindungen, die zum Beispiel optimiert werden sollen, da der Mensch gewisse Eigenschaften in Proteinen erzeugen möchte. Durch KI kann der Prozess viel schneller virtuell simuliert werden, als durch ein händisches Testen im Labor.

“Wenn du so willst, ist dann eben KI / Machine Learning eigentlich eine Grundlagen-Technologie für die Durchbrüche in einem Bereich wie synthetische Biologie, Material, Wissenschaft und Food.”

 

 

_____________________________________________

GLOSSAR FÜR PODCAST

 

BASICS:

augmented reality

Augmented reality (= erweiterte Realität) ist eine computerbasierte Erweiterung der Realitätswahrnehmung. Dabei können alle menschlichen Empfindungen wie Sehen, Hören, Riechen, Schmecken und (mechanisches) Fühlen angesprochen werden.

 

machine learning
machine learning (= Maschinelles Lernen) ist ein System, das aus Beispielen und Erfahrungen lernt und daraus Informationen verallgemeinert und zu künstlichem Wissen generiert. Es werden Daten analysiert, Muster erkannt und darauf basierend Entscheidungen getroffen. 



UNTERNEHMEN & BEISPIELE, DIE IM PODCAST ERWÄHNT WERDEN:

OpenAI

OpenAI ist ein Forschungs-Unternehmen in dem Bereich der künstlichen Intelligenz. Das Ziel von OpenAI ist sicherzustellen, dass KI auf Open-Source-Basis entwickelt und vermarktet wird und so der Gesellschaft zugute kommt.

 

GPT-3

GPT-3 (Generative Pretrained Transformer 3) ist ein Sprachmodell der dritten Generation von OpenAI, das Deep Learning verwendet, um menschenähnliche Texte zu erstellen. Der KI-gestützte Textgenerator kann Sätze vervollständigen, Geschichten, technische Dokumentationen, Nachrichten und noch viel mehr schreiben.



DeepMind
DeepMind ist ein Unternehmen, das sich auf den Bereich der künstlichen Intelligenz spezialisiert. Das Programm AlphaGo wurde bei DeepMind entwickelt. 

 

Go
Go ist ein Brettspiel aus China, bei dem mehrere Ebenen des strategischen Denkens erforderlich sind. Es ist sehr komplex und gilt als eines der herausforderndsten Spiele für künstliche Intelligenz.


AlphaGo
AlphaGo ist das erste Computerprogramm, das professionelle menschliche Go-Spieler (u.a. einen Go-Weltmeister) besiegt hat. Das Programm wurde von DeepMind entwickelt und kombiniert u.a. Techniken des maschinellen Lernens.

2020-10-29 podcast Techtalk data ai with love and data KI