Adrian ist Mitgründer und CEO von Merantix, einem Investment- und Venture-Studio für Künstliche Intelligenz, das seit 2016 in über 10 AI-Unternehmen investiert und diese mit aufgebaut hat. Zudem ist er Initiator des AI Campus in Berlin, einem zentralen Hub für die Community der Künstlichen Intelligenz in Europa. Adrian ist seit über 20 Jahren als Serienunternehmer und Investor tätig und hat in dieser Zeit zahlreiche Unternehmen gegründet, darunter DeinDeal, eines der größten E-Commerce-Unternehmen der Schweiz, das er erfolgreich an Ringier verkauft hat. In dieser Episode sprechen Adrian und ich über die realen Risiken und Chancen der Künstlichen Intelligenz, warum er glaubt, dass nach den Revolutionen von Dampf, Elektrizität und Computertechnologie nun mit AI ein neues Zeitalter für die Menschheit eingeläutet wird, und welche Herausforderungen uns bei technologischem Fortschritt in unserer Gesellschaft erwarten.
Kapitel
(00:00) Einführung: Wer ist Adrian Locher?
(03:02) Warum Adrian früh ins Unternehmertum einstieg
(07:52) Warum Künstliche Intelligenz Adrians Fokus wurde
(12:25) Der aktuelle Stand der Künstlichen Intelligenz
(13:35) Stecken wir in einer AI-Blase?
(17:33) AI vs. Kryptowährungen: Ein Vergleich
(19:26) Die Technologie-Ebenen der Künstlichen Intelligenz
(27:09) OpenAI & ChatGPT: Die Revolution des Nutzer-Interfaces
(31:27) Die Zukunft von ChatGPT und ähnlichen Tools
(37:55) Risiken und Herausforderungen von Künstlicher Intelligenz
(43:00) Technologischer Fortschritt: Wo liegen die Probleme?
(52:35) Die realen Risiken von AI: Was uns wirklich bedroht
(57:00) Spannende Anwendungen von AI im Alltag
(01:09:21) Adrian’s Challenge
Ressourcen
- EO (Entrepreneurs' Organization) - https://hub.eonetwork.org
- AI Campus Berlin - https://www.merantix-aicampus.com
- DeinDeal - https://www.deindeal.ch
- Merantix Webseite - https://www.merantix.com
- Cambrium, AI für neue Materialien - https://www.cambrium.bio
- Vara, AI für Brustkrebs Erkennung - https://www.vara.ai
- Merantix Portofolio Startups - https://www.merantix.com/portfolio
Adrian Locher [00:00:00]:
Kostet Innovation Menschenleben? Ja. Punkt. Und etwas anderes zu erzählen und zu verkaufen ist einfach fatal. Man muss sich aber auch fragen, was ist denn der Gewinn, den man davon hat, wenn man die Innovation hat? Und am Schluss ist es eine Nutzenoptimierungsfrage. Das klingt extrem zynisch, ist aber ehrlich gesagt auch das, was jeden Tag überall passiert. Jetzt machen wir mal das Gedankenexperiment und sagen, okay, selbstfahrende Autos, wann dürfen die auf die Strasse? Es gibt zwei Möglichkeiten. Eine Möglichkeit ist, sobald sie keine Menschenleben gefährden. Eine sehr logische Schlussfolgerung und aus einer humanistischen Perspektive stimmt glaube ich jedem zu. Jetzt könnte man aber auch eine andere Position einnehmen und sagen, was, wenn man eine Perspektive einnehmen würde, Technologie darf dann auf die Strasse, sobald sie weniger Menschenleben fordert, als die menschlichen Fahrer. Das ist plötzlich eine sehr andere Perspektive. Im Ende führt es dazu weniger Verkehrstote. Ich finde, diese Frage muss man darum diskutieren und offen sein. Und den Leuten aufhören, etwas vorzuleben.
Sandro Meyer [00:01:31]:
Unser heutiger Gast ist Adrian Locher. Adrian ist Mitgründer und CEO von Merantix, einem Investment- und Venture-Studio für künstliche Intelligenz, das seit 2016 in mittlerweile über zehn AI-Firmen investiert und mit aufgebaut hat. Er ist zudem auch Initiator des AI-Campus in Berlin, einem zentralen Hub für die Community der künstlichen Intelligenz in Europa. Adrian ist seit über 20 Jahren als Serienunternehmer und Investor tätig und hat in dieser Zeit zahlreiche Unternehmen gegründet, unter anderem DynDeal, einem der grössten E-Commerce-Unternehmen der Schweiz, das er dann an Rigny verkaufen konnte. In dieser Episode sprechen Adrian und ich über die realen Risiken und Möglichkeiten der künstlichen Intelligenz, Wieso er denkt, dass nach der Revolution von Dampf, Strom und Computertechnologie jetzt mit AI ein neues Zeitalter für die Menschheit eingeläutet wird und mit welchen Problemen wir zu kämpfen haben, wenn es technologischen Fortschritt in unserer Gesellschaft geht. Wenn ihr diese Folge fertig gehört habt, versteht ihr besser, wie die künstliche Intelligenz überhaupt funktioniert, wieso die Risiken vielleicht doch nicht so gross sind, wie die Medien gerne erzählen und wie wir als Gesellschaft in den nächsten 10 bis 20 Jahren von dieser Technologie profitieren werden. Das ist der Swiss Pioneers Podcast. Wenn du uns unterstützen möchtest, abonniere die Show auf YouTube oder in deinem Podcast Player und bewerte uns, gerade noch rasch, wenn du schon da bist. Und jetzt, meine lieben Freunde, ein Gespräch mit Adrian Locher. Du warst selbst Jungunternehmer schon relativ früh Das war dein Traum scheint es Ich glaube 14, 15 hast du so ein wenig angefangen Jetzt Du hast ja nach dem Studium die HSG gemacht. Und schon während des Studiums hattest du ein Angebot von Goldman Sachs. Hast du dir das überlegt? Das ist ja das, was man macht, nachdem man die HSG gemacht hat in der Wirtschaft, dann geht man entweder zu einer Bank oder ins Consulting. Hast du noch ein paar Tage kurz vor der Anfangszeit, und dann hast du das abgesagt, jetzt... Was hat dich so früh dazu bewegt, ins Unternehmertum zu gehen?
Adrian Locher [00:03:49]:
Ja, ich glaube tatsächlich Vieles war gar nicht so geplant, sondern entstand einfach aus eigentlichen Gelegenheiten. Ich habe schon in der Schule Webseiten programmieren begonnen. Ich habe damit das erste Geld verdient. Ich habe auch gemerkt, dass es interessanter ist als im McDonald's Burger zu flippen. Aber ich habe mich für das Internet entschieden, das in den 90er-Jahren brutal kam. Ich habe im zweiten, dritten Semester der Uni angefangen mit dem ersten Unternehmen. Das war eine Softwarefirma, die Content-Management-Systeme gemacht hat und Web-Applikationen entwickelt. Und ich bin eigentlich über das wie so ein bisschen reingekommen und es hat mir einfach wahnsinnig viel Spass gemacht. Und Einer der Gründe, dass ich damals Nein gesagt habe zu Goldman, war, dass ich mir überlegt habe, ob das das ist, was ich machen möchte. Ich merkte, dass es nicht das ist. Ich habe das mehr so gemacht, weil viele andere diesen Weg gemacht haben. Ich habe natürlich auch ein wenig Unverständnis am Anfang geerntet, wenn du so etwas im Nein sagst. Ich blieb aber trotzdem meiner eigenen Intuition treu, zu sagen, ich mache das, was mir Spass macht, und alles andere nicht.
Sandro Meyer [00:05:09]:
Wie hat sich dein Unternehmengeist entwickelt? Hast du mit der Zeit gemerkt, ist es Selbstständigkeit gegangen und die eigenen Entscheidungen fehlen können, die Freiheit? Wenn du grössere Unternehmen anfingst zu bauen, ging es Impact, welchen Einfluss du auf gewisse Branchen haben kannst. Wie hat sich deine Motivation entwickelt?
Adrian Locher [00:05:38]:
Was mich wirklich antreibt, sind zwei Dinge. Du hast alles davon schon genannt. Das eine ist das Bauen, das andere ist der Impact. Auf der Bauenseite merkte ich sehr früh, dass mich das interessiert. Ich baute als Kind mit meinem Vater Sachen aus Holz. Irgendwann begann ich, Computer zu bauen. Irgendwann begann ich, Software zu bauen. Heute baue ich Unternehmen. Auf der Impact-Seite ist es recht ähnlich. Mit jedem neuen Unternehmen, das ich gestartet habe, kam ich immer mehr in eine Situation, in der ich merkte, ich kann mich jetzt selbst finanzieren. Jetzt geht es vielleicht auch noch ein bisschen über die Ziele, die darüber hinausgehen. Wie kann ich etwas bauen, das auch grösser werden kann als ich selber, das auch viele andere Menschen berührt? Und jetzt mit Merantix natürlich auch am Ende, wie kann ich anderen dabei helfen, erfolgreiche Unternehmen aufzubauen?
Sandro Meyer [00:06:34]:
Es ist ja auch nicht nur das. Das erste grosse Unternehmen war nachher DyneDeal, das nachher verkauft wurde. Aber ich habe dich wohl auch mal irgendwo Sagen gehört, dass du gesagt hast, dass es Erfolg und einen Impact hatte. Aber jetzt möchte ich etwas machen, das auch für die Menschheit, vielleicht nach meinem Ableben, interessant bleibt und einen wirklich positiven Impact für unsere Gesellschaft hat. Kannst du uns auch ein wenig in dieses Denken einbringen?
Adrian Locher [00:07:08]:
Ja, definitiv. Ich finde, mit einer gewissen finanziellen Unabhängigkeit kommt auch eine gewisse Verantwortung, mit diesem Geld auch etwas Sinnvolles zu machen, das vielleicht über den Profit hinausgeht und einen grösseren Impact hat. Wie du auch gesagt hast, auch etwas aufzubauen, das mich selbst überleben kann. Ein anderer Teil dieses Denkens kam sicherlich auch, nachdem ich Vater wurde. Ich merkte, dass nach mir auch jemand auf dieser Welt sein wird. Ich möchte, dass sie in einer noch besseren Welt leben als ich. Ich bin ein optimistischer Mensch. Ich glaube an eine positive Zukunft. Und gleichzeitig kann ich aber, wenn ich die mitgestalte, die vielleicht noch ein
Sandro Meyer [00:07:51]:
bisschen positiver gestalten. Und du bist dann, wann hast du verkauft? Letztes Jahr 15? 15.
Adrian Locher [00:07:57]:
Letztes
Sandro Meyer [00:07:57]:
Jahr 15. Und das Was ich mitbekommen habe, ist, dass viele, die verkaufen, sich fragen, was sie als nächstes machen sollen. Und dann bist du in die Welt hinaus. Ich glaube, du bist damals in Silicon Valley gegangen. Man kann jetzt rückwirkend sagen, dass AI klar logisch ist. Aber ich kann mich erinnern, dass es zu dieser Zeit das Elon Musk Lager, die OpenAI, gegeben hat. Oder es hat gerade gestartet. Aber es war erst am Aufkommen. Es war kein trendiges Thema. Wir kommen zum Trend und Hype später noch. Aber kannst du uns in diese Periode einbringen? Du hast gerade verkauft und suchst nach dem Nächsten.
Adrian Locher [00:08:47]:
Ja. Ja, genau. Ich habe mich tatsächlich in ein Sabbatical gezwungen, weil ich wusste, dass ich grundsätzlich sehr begeisterungsfähig für neue Themen bin und gleichzeitig aber auch nicht zu schnell mit etwas Neuem starten will. Darum sagte ich mir, dass ich zwölf Monate Pause machen muss. Eine Pause, in der ich eigentlich kein Business machen darf. Also nicht investieren, keine grossen Commitments eingehen, nichts Neues starten, sondern das, was ich machen darf, ist Menschen treffen, Leute treffen und lernen. Ich habe entsprechend dann eine längere Zeit in San Francisco und der Umgebung gelebt. Ich war auch ein bisschen an der Stanford Uni und habe dort ein paar Kurse besucht und habe mir ganz viele verschiedene Themen angeschaut. Ich habe mir drei Fragen gestellt. Die erste Frage, was sind die wirklich ganz, ganz grossen 5 bis 10 Themen von den nächsten 50 bis 100 Jahren? Bewusst sehr grosser Zeitraum, sehr grosser Horizont, damit es wirklich die grössten Themen sind. Dann die zweite Frage war, und von diesen Themen, was davon fasziniert mich wirklich ganz tiefgehend? Und die dritte Frage war, und bei welchen von diesen kann ich selber auch wirklich etwas dazu beitragen, im Sinne von mit meinem Background, mit meinem Wissen, mit meiner Erfahrung wirklich auch vielleicht einen Unterschied machen. Und das war wie so eine Art Idee-Funnel, welches dann am Schluss tatsächlich Machine Learning, AI, als eines der Themen herausgekommen ist, die all diese drei Boxen getickt haben. Das war tatsächlich etwas, das mir im Silicon Valley erst bewusst wurde. Was für einen grundlegenden was für einen grundlegenden Impact die Technologie auf unser Leben und auf die nächsten 50-100 Jahre wirklich haben wird. Und dass für mich AI Machine Learning wirklich eine von diesen ganz grossen, wenn nicht die grösste Grundlagentechnologie ist, die sich eigentlich einreiht in die letzten industriellen Revolutionen, angefangen von Dampf, dann Strom über den Computer, bis jetzt eben hier in die Daten-AI-Revolution, wo ich glaube, das wird alle Industrien, die man sich vorstellen kann, grundlegend verändern wird. Dadurch gibt es natürlich auch enorme neue Chancen für Unternehmen, die entstehen, die so davor gar nicht existieren konnten. Wenn man jetzt vielleicht die vorangehende Grundlagentechnologie ins Internet nimmt, so gibt es ja eigentlich die grössten Unternehmen, die du in diesen Bereichen heute hast, die konnten ohne das Internet gar nicht existieren. Die haben sozusagen neue Kategorien geschaffen, wenn das jetzt ein Google, ein Facebook oder ein Spotify, Netflix ist, die wie das Internet das Grundlagentechnologie nutzen, ein neues Geschäftsmodell zu erarbeiten. Das ist eigentlich auch das, was mich antreibt und das ist auch das, worauf
Sandro Meyer [00:11:43]:
wir uns jetzt auf der Überhandungsseite fokussieren. Also wenn ich das heraushöre, ist das auch anhand dieser drei Kriterien signifikant für die nächsten 50 bis 100 Jahre ein Hauptkriterium gewesen, beziehungsweise auch dort, wo du etwas bewirken kannst. Jetzt, wenn wir bei der Signifikanz bleiben, wo stehen wir heute? Du hast das Internet der Welt. Nehmen wir das als Beispiel, weil die meisten, die zuhören, sich noch daran erinnern oder benutzen. Vielleicht nicht mehr alle. Wie muss man sich heute AI im Internetzeitalter vorstellen? Wenn wir zurückblicken in die 90er-Jahre.
Adrian Locher [00:12:35]:
Ja, man kann sagen, dass wir bei AI momentan dort stehen, wo das Internet am Anfang stand.
Sandro Meyer [00:12:45]:
Google gibt es schon.
Adrian Locher [00:12:46]:
Genau, man sieht, es gibt grosse Chancen, es wird neue Modelle geben. Aber insgesamt ist alles immer noch sehr klein. Und viele Leute fragen sich, ob das überhaupt etwas ist oder ob es irgendwann wieder weggeht. Und man hat auch gewisse Phasen, in denen es auch wieder grosse Enttäuschungen gibt. Also das Platz der Dotcom-Bubble hat erstmal grosse Fragezeichen aufgeworfen und viele Leute dazu gebracht, zu sagen, ja, das war doch jetzt irgendwie nur so eine Fähde, es ist doch nichts langfristiges, das verschwindet dann auch wieder. Ich glaube, wir sind dort an einem sehr ähnlichen Ort, was Machine Learning AI angeht. Ich würde mal sagen, das, was wir heute sehen, ist etwa 1% von dem, was in Zukunft möglich sein wird.
Sandro Meyer [00:13:35]:
Das ist noch interessant. Hast du das Gefühl, uns besteht eine Bubble bevor wir 2000, 2001 anlassen? Schlussendlich sind ja alle Märkte, auch die Trends, immer in Zyklen unterwegs. Es ist nicht so, dass AI auch nicht schon bevor du angefangen hast 2015, das ist ja zum Teil sogar schon in 70er, 80er Jahren besprochen worden. Ähm, was ist jetzt anders und wie, wie, ja... Vergleicht sich es vielleicht mit der Dotcom-Bubble?
Adrian Locher [00:14:08]:
Ja, Ich glaube, es ist ein sehr guter Vergleich. Die Dotcom-Bubble ist nicht geplatzt, weil die Technologie nicht funktioniert hat, sondern die Geschäftsmodelle, die darauf basiert haben, haben einfach nicht oder noch nicht funktioniert oder waren viel zu hoch bewertet. Und am Schluss ist es einfach nicht aufgegangen auf der Investitionsseite. Und ich glaube, die gleiche Gefahr haben wir sicherlich auch in so einer Hype-Phase von der AI-Technologie, dass sehr viele Unternehmen extrem hoch bewertet sind, ohne dass das Geschäftsmodell darunter schon komplett klar ist. Es gibt auf der Technologieseite eigentlich weniger die Frage, ob das funktioniert. Man sieht ja schon, dass es funktioniert. Und das, was heute schon funktioniert, kann man sich wahrscheinlich auch ausrechnen und vorstellen, was in Zukunft noch alles funktionieren kann. Also diese Entwicklung geht gerade sehr schnell. Gleichzeitig gibt es aber auf der Geschäftsmodellseite wahnsinnig viele Fragezeichen. Und an vielen Orten gibt es noch keine nachhaltigen Geschäftsmodelle, die darunter sind. Oder die Wertschöpfung, die Wertgenerierung ist eigentlich viel zu dünn. Also, wenn wir jetzt als Beispiel nehmen, die ganzen sogenannten Rapper, die einfach ein Large-Language-Model nehmen und sagen, ja, ich mache jetzt einen Rapper für Journalisten, ich mache einen Rapper für Agenturen, ich mache einen Rapper für Ärzte oder was auch immer, dann ist die Frage, wie viel Wert das Geschäftsmodell generiert, versus die unterliegenden Technologien, Und wer kann wie viel von diesem Wert in sein Geschäftsmodell nehmen? Und am Ende, wenn das zu dünn ist, bist du auch einfach wieder ersetzbar. Beziehungsweise die Large Language Models, die darunter liegen, werden sich vielleicht in deinen Markt hineinfressen und dir eigentlich den Marktteil wegnehmen. Darum gibt es dort schon sehr grosse Fragen. Und es gibt natürlich auch Teile der Technologie, die effektiv noch nicht so gut funktionieren. Das Selbstfahrende Auto ist das beste Beispiel, bei dem man schon seit 20 Jahren sagt, dass es eigentlich funktionieren müsste. Trotzdem scheitert es an bestimmten Elementen, die, man kann auch argumentieren, gar nicht so viel mit der Technologie selbst zu tun hat, sondern einfach mit den Umgebungsfaktoren. Ein Auto, das sich in einer Stadt bewegt, wo unterschiedliche andere Verkehrsteilnehmer drin sind, wo ganz andere Variablen haben, wo ganz andere Bewegungsvektoren haben, ist statistisch gesehen ein riesiges Problem und eine riesige Herausforderung, weil das Auto muss eigentlich immer in einer bestimmten Zeit halten, wenn eine Gefahr entsteht. Und wenn Fussgänger, die sich mit 3-4 kmh bewegen, versus das Auto, das sich mit 50 kmh bewegt, dann hast du dort statistisch gesehen einfach ein paar Probleme in einem System, die gar nicht so einfach zu lösen sind. Und ich glaube, das ist eines der Beispiele, die vielleicht auch ein bisschen zeigt, es ist eigentlich gar nicht so sehr die unterliegende Technologie ist, die definiert, wie schnell sich etwas durchsetzt, sondern es ist eher der Mensch in der Anwenderseite oder in diesem Fall auch der gesetzgeuerischen Seite, die eigentlich bestimmt, wie schnell es geht, bis eine Technologie wirklich in der vollen Fläche ausgerollt ist.
Sandro Meyer [00:17:23]:
Jetzt, bevor wir dann auch auf die einzelnen Anwendungen gehen und viele dieser Punkte, die du jetzt gesagt hast, noch einmal näher beleuchten, Das, was auch so ein bisschen im Volksmund oder Leute, die sich jetzt nicht mega mit AI und Technologie und so auseinandersetzen in der Tiefen, die sind so, ja jetzt haben wir gerade Krypto gehabt und das ist jetzt irgendwie eine dezentralisierte Finanzen und ich habe da irgendwie sogar noch mitgemacht oder irgendwie eine Handvoll auch das geliebt und so. Ich habe die Finanzen und sogar noch mitgemacht oder das vorhin noch geglaubt. Ich persönlich bin so, ja gut, es war eine relativ neue Technologie und es war vielleicht die erste Hive-Cycle aus meiner Sicht. Aber ich würde gerne deine Sicht geben. Was fühlt sich für dich anders an, den Zuhörern zu sagen, dass das hier to stay ist und wir schon ein bisschen weiter weggerübt sind? Oder wie von aussen ist das vielleicht nicht immer ganz klar.
Adrian Locher [00:18:18]:
Für mich gibt es eine ganz simple Logik. Die Anzahl der Use Cases, die du AI als Technologie verwenden kannst, ist deutlich grösser, als die Anzahl der Use Cases, die Crypto auch wirklich sind. Und das bedeutet ja auch, die Chancen für Geschäftsmodelle, die darauf entstehen, sind einfach viel grösser. Crypto ist Eine Grundlagentechnologie wie AI auch, die aber in vielen Bereichen noch zu wenig effizient ist, damit sie wirklich in die breite Anwendung kommt. Entsprechend hast du weniger Use Cases, wo es wirklich Sinn macht, zu sagen, jetzt setzen wir die Technologie ein. Wenn du auf Machine Learning KI schaust, dann gibt es aus heutiger Sicht schon deutlich mehr Felder, wo es die beste mögliche Technologie ist, einsetzen. Das bedeutet auch, dass die Anzahl der Geschäftsmodelle, die profitabel darauf gebaut werden können, viel grösser sind. Das bedeutet, dass die Chancen für Investoren, die in diesen Bereich gehen, deutlich grösser sind.
Sandro Meyer [00:19:26]:
Du hast ein paar Mal die Anwendungszwecke erwähnt. Das war lustig, weil das, was du gerade erwähnt hast, war ein Interview von Sam Altman, CEO von OpenAI, der unter anderem JGPT entwickelt hat. Er hat auch gesagt, so ein grosser Teil der derzeitigen Firmen, die AI-Produkte entwickeln, sind extrem an der Oberfläche. Und er hat eigentlich gesagt, es gibt zwei Arten von Firmen. Die eine, die auf die Grundlagen die Infrastruktur aufbaut. Und dann die, die anerkennen, dass es ein paar grosse Player gibt, die, wenn das Momentum so weitergeht, dann müssen wir wahrscheinlich andere Anwendungen, also wir müssen uns das Business anders aufbauen als an dieser Oberfläche. Und einfach, du hast jetzt Rapper genannt, Vielleicht kannst du das auch noch genauer erklären. Es gibt eigentlich diese beiden Arten von Firmen derzeit. Der Hype ist oft, jetzt habe ich das Gefühl, derzeit so ein bisschen an der Oberfläche, oder wie du sagst, im Anwendungsbereich, im Büro. Du bist, oh wow, ich kann jetzt mal XYZ machen. Und das fühlt sich dann so magisch an. Kannst du es in deinen eigenen Worten beschreiben? Das mit dem Rapper, Infrastruktur und Anwendungs.
Adrian Locher [00:20:56]:
Wenn wir auf den Technologie-Stack schauen, also Technologie-Layers quasi, und das ist nicht unsere Erfindung, das ist so, wie man Mark Technologien unterscheidet, dann ist es einerseits die Infrastruktur, das ist der Technologielayer der Large-Language-Models, der grundsätzlichen Modelle, die u.a. OpenAI oder Mistral machen. Und ganz viele andere, die in diesem Markt unterwegs sind, machen die Grundlagen. Das kann man sich ein bisschen vorstellen wie in der Internet- welt die Cloud-Anbieter, die das Cloud-Computing, das du als Kundennutzer dafür zahlst, dass jemand für dich die Cloud managt. So kann man sich die Modelleier, den Modell-Layer, also den Infrastruktur-Layer vorstellen. Dann hast du in der Mitte, hast du den sogenannten Tool-Layer. Der hilft dir, den Modell-Layer zu nutzen. Das kann zum Beispiel sein, wenn es darum geht, dass du deine eigenen Modelle basierend auf der Infrastruktur trainierst, sogenannt Feintunen. Das kann sein, dass du Daten aus deinem eigenen Unternehmen nutzt, neue Dinge zu trainieren, die Modelle auch besser zu machen, die Daten zu annotieren, die Sicherheit zu gewährleisten. Das ist der Tooling. Im Cloud wäre das was? Im Cloud ist das auch ein Tool-Layer, welches Unternehmen wie ein Snowflake, ein Data-Brick, welches darauf basiert, dass du deine Applikationen, das ist der Applikations-Layer, laufen lässt. Damit das besonders sicher und schnell passieren kann, brauchst du quasi ein Verbindungsstück, das dann wiederum auf die unterliegenden Grundlagentechnologien zugreift und in der Mitte eigentlich eben deine Anpassungen dir möglich macht. Ob das jetzt auf der Sicherheitsseite ist, ob das auf der Personalisierungsseite ist. Grosse Trainingsdaten zu managen, Wenn du zum Beispiel von einem Auto herum fährst, dann hast du Terabytes von Daten, die jeden Tag entstehen, wenn deine Autos Daten sammeln. Irgendjemand muss diese Daten kategorisieren, kontextualisieren, damit sie dann wieder verwendet werden können, neue Modelle zu trainieren. Und das ist genau etwas, was auf diesem Tool Layer passiert. Und der oberste, das ist dann eben der Applikations Layer. Das ist auch dort, wo wir uns hauptsächlich darauf fokussieren, wo wir die grössten Chancen sehen. Das ist dann dort, wo die eigentliche Anwendung, quasi Customer Facing, passiert. Ob das eben eine Medizin-Anwendung ist oder eine Industrie-Anwendung. Wir kommen sicher noch dazu, was das alles sein kann. Aber das ist der obere Layer, wo wir die grössten Chancen sehen. Weil man auf diesem Applikations-Layer in der Lage ist, das Geschäftsmodell komplett neu zu denken, weil AI heute funktioniert. Das Ganze vielleicht ein wenig zu ordnen, es gibt aus meiner Sicht ein schönes Beispiel, was ist der Hype, auch wenn man momentan herausschaut, wie du vorhin gesagt hast. Am meisten Diskussionen ist eigentlich momentan rund die Infrastrukturanbieter, oder? OpenAI, Mistral, die ganz viel Aufmerksamkeit erhalten und auch ganz viel in den Storen drauf springen und noch irgendwann dabei sind. Wenn du jetzt zurückblickst ins Jahr 2000 und sich dort anschaust, was zu diesem Zeitpunkt die wertvollsten Tech-Companies? Das waren Intel und IBM. Wir können argumentieren, dass Intel und IBM damals quasi die Infrastruktur-Player der Internetzeit waren. Intel hat Chips gemacht, IBM hat Server gemacht. Beides waren die Grundlagen, auf denen das Internet überhaupt operieren konnte. 20 Jahre vorgespult, die wertvollsten Tech-Unternehmen, Facebook und Google, Das waren die Anwender dieser Grundlagentechnologien, die das genutzt haben, neuartige Geschäftsmodelle zu machen, die vorher gar nicht existieren konnten, bevor das Internet funktioniert hat. Wenn man sich heute die wertvollsten Unternehmen in diesem Infrastrukturbereich sind. Und dann stellt sich natürlich die ganz grosse und spannende Frage, was sind in den nächsten 20 Jahren die wertvollsten Unternehmen? Unsere Wette und unsere These ist, dass es genau wieder die Applikations- und nicht so sehr die Infrastrukturebene sein wird. Denn die Infrastrukturebene wird auch sehr stark commoditisiert. Wenn du heute Cloud Computing nutzt, kannst du mehr oder weniger per Klick austauschen zwischen Microsoft, Google, Amazon und vielen anderen Playern, die dir die Grundlagentechnologie bereitstellen. Du kannst heute auch schon, wenn du deine Architektur richtig gemacht hast, zumindest deine Large Language Models unten austauschen. Und das ist auch normal. Das führt natürlich aber auch dazu, dass ein gewisser Druck auf der preislichen Seite entsteht. Und diese Unternehmen eigentlich nur darum können sehr wertvoll werden, weil sie einfach nachher halt eine sehr grosse Position im Markt einnehmen und sehr viele Kunden haben. Mit, wo findet eigentlich die Wertschöpfung statt? Dann ist auch wieder interessant, wir haben uns das vor ein paar Monaten mal angeschaut, wenn du die Wertschöpfungskette anschaust, wie viel davon landet eigentlich bei den Cloud Computing Provider von den Internetanwendungen, dann ist das irgendwo ein Wert zwischen 3 und 7 % der Wertschöpfung, die zu den Cloud-Unternehmen geht. Der Rest basiert auf den darüber liegenden Layers. Und das ist also unsere These, dass wir dort sein wollen, wo die grössere Wertschöpfung stattfindet.
Sandro Meyer [00:27:09]:
Und ist es in dem Fall auch... Die Leute sind heute super excited über die Chatship-IPT. Kann man das ein bisschen vergleichen, wie vielleicht... Was wäre der Layer gewesen? Also eigentlich Browsers vom Internet. Du hast immer von dem Internet gehört und jetzt ist auf einmal etwas da, das du als Nutzer brauchen kannst. Das ist
Adrian Locher [00:27:33]:
ein sehr guter Vergleich. Das Internet existierte ja seit den 70er-Jahren. Genau. Der Browser veränderte den Zugang zum Internet. Der Browser ermöglichte den normalen Nutzer, der normalen Nutzerin, das Ding zu benutzen, weil es nicht mehr über die Kommandoziele ging. Plötzlich hatte man eine grafische Oberfläche. Das führte zu einer Explosion der Technologie. Die grosse Innovation, die OpenAI mit ChatGPT tatsächlich geschafft hat, ist, der bereits existierenden Technologie ein anderes User-Interface zu geben, nämlich ein chatbasiertes Interface, bei dem man argumentieren kann, die Konversation sei das älteste Medium, das der Mensch kennt, das auch sehr intuitiv funktioniert, das dir ermöglicht, mit einer sehr komplexen Technologie auf eine sehr einfache Art und Weise zu interagieren. Das hat überhaupt zu einer Explosion der Nutzung geführt. Das wiederum hat auch dazu geführt, dass die Modelle, die Large-Language-Models, auch so viel besser wurden. Du hast ja durch das ständige User-Feedback einen Verbesserungsschlauf eingebaut bekommen. Also Reinforcement Learning mit Human Feedback, also in the loop sozusagen. Und das hat überhaupt dazu geführt, dass die Modelle auch so schnell so viel besser geworden sind. Wenn man sich vergleicht mit den ersten Modellen, die releast worden sind Ende 2022 und du dir die heutigen Modelle anschaust, das kann man quasi fast gar nicht mehr vergleichen, wie gut sie innerhalb von 18 Monaten geworden sind. Ohne diese starken Nutzerzahlen wäre das nicht möglich gewesen. Also, diesen Schritt braucht es wie? Der erste Schritt der Kommerzialisierung ist,
Sandro Meyer [00:29:24]:
dem Otto-Normalverbraucher irgendein Tool zu geben, mit dem sie an dieser Technologie teilhaben können. Ja. Und wenn wir jetzt in die Anwendungen heute gehen, jetzt von, bevor wir dann über Merantix selber sprechen, was sind die Sachen, vielleicht fangen wir bei dir an, was nutzt du tagtäglich, vielleicht offensichtliche Sachen, die du nutzt, wie beispielsweise LGBT, Was sind die Sachen, die du tagtäglich nutzen? Wie du mit der JGPT direkt interagierst. Und was sind ein paar Dinge, die AI dahinter steckt, die wir vielleicht alle gar nicht überlegen. Oh ja, wow, das stimmt eigentlich auch.
Adrian Locher [00:30:07]:
Ja, das sind eigentlich ganz tatsächlich simple Beispiele. Also sobald du zum iPhone greifst oder Android Smartphone, dann nutzt du sehr, sehr, sehr, sehr viel KI-Technologie, die dort eingebaut ist, ob das die Sprachsteuerung ist oder das Routing von den Maps hast du oder E-Mails, die automatisch vorgeschrieben werden in Google oder Microsoft, wo gewisse Copilots schon drin sind. Das ist etwas, das ich nicht tagtäglich nutze. Natürlich nutze ich auch Chats GPT in jeglicher Form tagtäglich. Und im Prinzip Oder Wo gibt es spannende Dinge, die dein Leben vereinfachen, die Arbeit automatisieren, wo du vorher lange Research machen musstest. Wir haben diverse Anwendungen in unseren Investmentprozessen, wo es darum geht, schnell Informationen zu sammeln, Market Research zu machen. Dort nutzen wir standardmässig AI-Algorithmen und Anwendungen, wo es viel schneller geht, als wenn man jetzt jemanden losschickt und das quasi mit manueller Arbeit macht. Und wenn wir jetzt sagen, von heute, wo sind
Sandro Meyer [00:31:33]:
Flaschenhälse? Also weisst du, was fehlt dir derzeit, dass es den nächsten grossen Durchbruch kommt? Bleiben wir vielleicht mal bei den Large Language Models. Also kommt da überhaupt noch mega viel? Also, ja, was Auch vielleicht bevor wir weggehen, wo wir heute sind. Wo stehen wir heute an bei den Large-Language-Models? Und was ist der nächste Schritt? In welche Richtung geht es, so weit du das beurteilen kannst?
Adrian Locher [00:32:04]:
Also, auch wenn ein Large-Language-Model heute dir den Eindruck geben kann, dass es ein menschliches Denken hinter dem hat, eine Art Bewusstsein, Consciousness, It has not. It's statistics. It's very well done statistics, aber es sind immer noch Statistics. D.h., es basiert alles auf einem grossen Statistikmodell, wie realistisch und wahrscheinlich ist es, dass auf das eine Wort das andere folgt. Das Modell weiss nicht, was es dort schreibt. Dafür braucht es eine Art von Bewusstsein. Das ist etwas, von dem wir noch weit entfernt sind, auf der technologischen Seite. Ich kann auch damit argumentieren, dass wir als Menschen noch nicht einmal genau wissen, wie das Bewusstsein im Hirn entsteht. Das Hirn ist ja am Schluss medizinisch gesehen auch nichts anderes als eine grosse Rechenmaschine, die enorm viel machen kann. Und das in einer extrem effizienten Art und Weise. Ich habe mal gehört, wenn man die Rechenkapazität des Gehirns mit heutiger Technologie abbilden würde, dann hätte man eine 5 Tonnen schwere Maschine. Und nicht ein Organ, das ein paar Kilo schwer ist, die aber die gleichen Kapazitäten hat. Also dort sind wir sicherlich noch nicht. Die grossen Würfe, die in den letzten paar Monaten passiert sind, sind sicherlich die sogenannten Multimodalen Modelle. Das heisst, Large Language Models, die in der Lage sind, Input in verschiedensten Formen zu verwenden, ob es Videos oder Texte sind, und dann auch in der Lage sind den Output in unterschiedlichsten Formen auszugeben, auch wieder Texte oder Videos oder whatsoever. Das ist sicherlich etwas, wo nochmal die Breite der Anwendungen, in denen so ein Modell verwendet werden kann, enorm gross geworden ist. Man kann aber auch sagen, dass der letzte Release von JGPT in diesem Sinne in der AI-Bubble auch ein wenig Vernüchterung gesorgt hat, weil doch jetzt eigentlich der Neuheitsgrad und die Entwicklungsgeschwindigkeit offensichtlich ein wenig abgenommen hat. Sie haben sie auch nicht 5 genannt, sondern sie haben es 4.0 Omni für Omni-Channel mit nochmal unterschiedlichen Interfaces, unter anderem auch Audio. Aber es sind eben noch nicht 5. Und da ist sicherlich jetzt auch die Frage, was ist denn 5? Könnte denn 5 sein, dass es wirklich in Richtung der AGM geht, der generellen Intelligenz, die dem Kapazität des Menschen näherkommt, die eben auch ein Reasoning dahinter hat, ein Consciousness Level dahinter hat? Wir wissen es nicht. Ich persönlich glaube auch, dass wir auf der Neurowissenschaftsseite noch nicht genügend weit sind, was wir vom Gehirn verstehen, es auch wirklich in der Maschine quasi abbilden zu können. Ich glaube, wir kommen aber dorthin. Es wird super viel und sehr interessante Forschung in diesem Bereich auch betrieben. Ich glaube, Die Brain Interfaces spielen eine Rolle, dass wir überhaupt irgendwann in der Lage sind, ein Gehirn effektiv zu simulieren. Das scheitert heute noch an den Rechenkapazitäten und an der Geschwindigkeit, wie das Gehirn seine States verändert. Du hast einfach Milliarden Bewegungen jede Sekunde. Und wenn du diese simulieren willst, dann brauchst du extreme Rechtskapazitäten.
Sandro Meyer [00:35:58]:
Ich fand das immer noch spannend Und etwas, was ich nie ganz verstanden habe, ich glaube sogar, Obonai selbst hat das gesagt, und auch die Industrie insgesamt, sie verstehen nicht ganz genau, was abgeht in den Modellen. Also ich kann das irgendwie nicht ganz einordnen. Was heisst das, wenn man etwas programmiert und sich selbst neue Dinge beibringt? Und man versteht nicht mehr, wie die Technologie selbst funktioniert? Vielleicht macht das auch den Leuten etwas Angst. Was heisst das? Wie muss man das verstehen?
Adrian Locher [00:36:34]:
Neuronale Netze basieren auf sehr vielen Layers. In all diesen Layers passiert etwas und finden Gewichtungen statt. Indem diese Layers zusammengefügt werden, kann ein solches Modell Dinge lernen. Dadurch, dass die Modelle und die Anzahl von Layern so gross werden, ist das nicht mehr eine lineare Funktion, nachzuvollziehen, was dort genau passiert ist. Darum kann man sagen, dass man in vielen Fällen nicht genau nachvollziehen, wie ist eigentlich die Entscheidung zustande gekommen. Das ist etwas von diesen Themen, die natürlich momentan am heissesten debattiert wird, weil man sagt, in gewissen Anwendungen will man aber genau das machen können, dass man sagt, man will und muss aber wissen, wie ein Entscheidungsstand kommt. Die Modelle sind aber einfach so komplex, man kann sich das auch einfach simpel vorstellen als Excel-Tabelle mit einer Million Zielen, aber auch einer Million Spalten. Und dort drin Muster zu finden als Mensch Good luck with that! Ist extrem schwierig, weil man nicht mehr in der Lage ist, alles zu überblicken. Die Technologie kann das aber sehr einfach. Sie kann also auch Muster erkennen, die der Mensch schon längstens verloren ist und diese Zusammenhänge gar nicht mehr erkennen kann.
Sandro Meyer [00:37:55]:
Ich finde das irgendwie schon noch wichtig, dass man es immer wieder so ein bisschen... Du hast es jetzt ein paar Mal gesagt, oder? Es ist immer noch Statistik und es ist immer noch... ...Da habe ich das Excel-Schein gut gefunden... ...Sonst endlich... Es basiert immer noch auf gewissen Algorithmen, die kein Bewusstsein haben. Es wird ja schon oft... ...Und ich meine, Ich verstehe das zum Teil auch, dass die Leute Angst haben. Es ist etwas Neues, die Medien erzählen alles Mögliche, man verliert den Job und all das. Und eben, man hört Dinge wie die Superintelligenz, die überholen uns und alles, was sie nach mir machen. Und all diese Dinge. Wo hast du das Gefühl, bestehen echte Risiken? Vielleicht kannst du es auch anhand des Layers sagen. Ich weiss nicht, ob das Sinn macht. Wo müssen wir überhaupt Regulierungen einführen?
Adrian Locher [00:38:50]:
Ich habe da eine sehr liberale Perspektive drauf. Ja, macht sie. Und gleichzeitig auch eine grundsätzlich optimistische. Ich finde, Das Wichtige, worüber man zuerst sprechen muss, ist, dass eine Technologie per se immer neutral ist. Die Technologie ist nicht gut und nicht schlecht. Die Technologie ist neutral. Dann gibt es Good Actors und es gibt Bad Actors. Good Actors nutzen die Technologie für gute Anwendungen und Bad Actors nutzen sie für schlechte Anwendungen. Man muss über die Bad Actors und deren Intention und Zugänge sprechen und auch was man macht, wenn ein Bad Actor so etwas nutzt. Technologie zu regulieren ist inhärent ein komplexes Unterfangen, insbesondere wenn sich Technologie so schnell bewegt. Denn wie wir alle wissen, sind Regulationsprozesse in den meisten Ländern basierend auf demokratischen Entscheidungsfindungsprozessen, also entsprechend relativ langsam. Und wir können auch argumentieren, es sind wahrscheinlich in der letzten Zeit auch noch etwas langsamer geworden. Grössere Bürokratie, die aufgebaut wurde usw. Und gleichzeitig ist es eine Technologie, die sich tendenziell immer schneller bewegt. Das heisst, da sieht man schon den eigentlichen Konflikt. Zwischen Regulation sollte irgendwie in der Lage sein, das, was in der Technologie passiert, auch nur ansatzmässig zu umfassen. Das ist sehr schwierig. Gleichzeitig kann man es auch einfach machen und sagen, ja, wir regulieren aber eher die Anwendung, das, was du damit machst, Und sagen, das darfst du und das darfst du nicht. Darüber muss man eigentlich reden. Es gibt Dinge, über die man argumentieren kann und argumentieren sollte, was ausser Kontrolle geraten kann. Man kann darüber auch argumentieren und sollte argumentieren, was quasi ausser Kontrolle geraten kann. Wo kann man etwas starten, das man dann irgendwann nicht mehr kontrollieren kann? Das sind häufig auch sehr theoretische und manchmal auch ein bisschen philosophische Diskussionen, die aber in diesem Sinne auch wertvoll sind, finde ich. Auch wenn es ganz oft noch keine technologischen Grundlagen gibt. Also, Diskussion, wir bauen ein System und das gerade ausser Kontrolle und geht quasi über das raus, was wir noch beeinflussen können. Technologisch gesehen, it doesn't exist.
Sandro Meyer [00:41:20]:
Und Das war wahrscheinlich auch bei der Dampfmaschine und beim Internet genau gleich. Sie haben wahrscheinlich die gleichen Diskussionen geführt und man hat ja immer das Gefühl, this time it's different, das mal ist es anders.
Adrian Locher [00:41:33]:
Und ich muss ehrlich sagen, ich bin der Meinung, und bin sehr happy, auch über das zu debattieren, es ist nicht anders. Also ich sehe Nicht, wo es konzeptionell und technologisch anders ist, wo man die Kontrolle verlieren sollte. Jedes Mal, wenn wir eine neue Technologie entwickeln, entwickeln sich auch unsere Fähigkeiten, mit dieser Technologie umzugehen. Und wir entwickeln auch wiederum Tools, die uns ermöglichen, mit dieser Technologie umzugehen. Ich mache immer ein sehr dummes Beispiel, weil es sehr simplifiziert ist. Aber wo der Mensch Feuer als Technologie entdeckt hat, war das eine Technologie, die enormes Potenzial und enorme Risiken hatte. Man stellt sich vor, wie in dem Mittelalter viele Städte einfach komplett runterbrannt sind, weil irgendwo ein Feuer ausgebrochen ist, das man nicht kontrollieren konnte. Mit der Zeit hat der Mensch Technologien wiederum entwickelt, mit dieser Grundlagentechnologie des Feuers besser umzugehen. Und das Feuer hat die komplett zerstörerische Kraft oder Vorstellungskraft etwas verloren. Es gibt nicht so viele Leute, die sich davor fürchten, dass Feuer die ganze Welt auslöscht. Gleichzeitig muss man sich auch nicht wirklich davor fürchten, dass AI die Welt auslöscht.
Sandro Meyer [00:43:00]:
Das Interessante an dieser Debatte ist ja auch oft, dass... Wir hatten eine Psychiatrin auf einem Podcast und sie... Ich weiss nicht genau wie sie es gesagt hat, aber sie hat gesagt, sie ist es ein bisschen leid, die... Äh... UPS-Technologien auf dem Markt zu haben. Wo man so ist, Hey, lass uns etwas auf den Markt bringen und dann schauen wir mal und dann merkt man, oh shit, ja Smartphones und Internet hat auch negative Dinge. Das ist so die pessimistische Sicht, aber vielleicht auch die vorsichtige Sicht. Und dann hast du Leute, die Techno-Optimisten sind, nenne ich es mal, wo ich mich persönlich dazu erzähle, ich verstehe aber das andere Argument sehr. Weil Auf der einen Seite möchte man Fortschritte machen, wie der Mensch so ist, so schnell wie möglich. Auf der anderen Seite haben wir auch Leute, Gesellschaft und Natur usw., die darunter leiden. Wie siehst du diese Schnittstellen?
Adrian Locher [00:44:09]:
Oder wie bewegst du dich dort? Eine wichtige Diskussion, die wir als Menschheit und Gesellschaft haben müssen. Was wollen wir, was nicht. Ich bin nicht ganz unerwartet auf der techno-optimistischen Seite. Und bin aber auch klar und provoziere mit dem gerne, Wenn ich sage, dass Innovation Menschenleben kostet, ja. Punkt. Und etwas anderes zu erzählen und zu verkaufen, ist einfach fatal. Man muss sich aber auch fragen, was der Gewinn ist, der man davon hat, wenn man Innovation hat. Der auch Gefahren mit sich bringt, der auch Ereignisse mit sich bringen wird, die die Technologie dazu führen, dass Menschenleben verloren werden. Und am Schluss ist es eine Nutzenoptimierungsfrage. Das klingt extrem zynisch, ist aber ehrlich gesagt auch das, was jeden Tag überall passiert. Ein Staat hat eine ziemlich klare Vorstellung davon, was ein Menschenleben kostet. Du kannst die Strassen zehnmal sicherer machen, wenn du hundertmal mehr investierst. Passiert aber nicht. Oder passiert nicht überall. Also, nimmst du bewusst eine Anzahl von Verkehrstoten jedes Jahr in Kauf. Du könntest versuchen, das auf Null zu bringen, wäre aber mit enormen Kosten verbunden. Also sagt man nein. Wir haben dort eine gewisse Fehlertoleranz. Und das noch etwas klassischer zu machen, nehmen wir wieder die selbstfahrenden Autos. Und die Diskussion, dass man sagt, ja eigentlich sollte die Technologie sicher sein und zu dem können alle irgendwie zustimmen. Jetzt machen wir mal das Gedankenexperiment und sagen, okay, selbstfahrende Autos, wann dürfen die auf die Strasse? Es gibt zwei Möglichkeiten. Eine Möglichkeit ist, sobald sie keine Menschenleben gefährden. Das ist Eine sehr logische Schlussfolgerung und aus einer humanistischen Perspektive stimmt glaube ich jedem dem zu. Jetzt könnte man aber auch eine andere Position einnehmen und sagen, also pro Jahr, ich glaube die Zahl stimmt ungefähr, ist 1 Million Verkehrstote auf der ganzen Welt. 1 Million. Was, wenn man eine Perspektive einnehmen würde, Technologie darf dann auf die Strasse, sobald sie weniger Menschenleben fordert, als die menschlichen Fahrer? Das ist plötzlich eine sehr andere Perspektive. Am Ende führt es dazu, weniger Verkehrstote. Sind es null Verkehrstote? Nein, das ist nicht ganz realistisch. Ich finde, diese Frage muss man darum diskutieren und so offen sein und den Leuten etwas vorzuleben. Das war einer meiner Gründe, warum ich während der Corona-Pandemie so viel Groll gegen einen Staat gehackt habe. Er sagt, es gebe 1 Mio. Risiken. Wir fokussieren uns auf die Minimierung eines einzigen und erzählen den Leuten, wenn wir das im Griff haben, ist alles andere safe. It's not. Das ist einfach nicht realistisch. Auch dort machst du einen Kosten-Nutzen-Abwägung. Ich glaube, da muss man aus der Technologie-Sicht vielleicht auch etwas offener damit umgehen und sagen, was der Nutzen ist und was die Risiken sind. Sobald der Nutzen die Risiken massiv übersteigt und es einen massiv positiven Nettoeffekt gibt, sollte man sich aus meiner Sicht nicht davor fürchten, diese neue Technologie noch zu nutzen.
Sandro Meyer [00:47:58]:
Danke. Ich glaube, Es ist ein enorm wichtiger Debat, wie du gesagt hast. Und gleichzeitig ist es auch ein bisschen unangenehm, weil es im Menschenleben involviert ist. Gewisse profitieren mehr als andere. Und man versucht, das ganz Gute anzuschauen, wo das Individuum dann ein bisschen verloren geht. Und ich glaube auch, dass in der Technologie, die heute noch oft diskutiert wird, es zum Teil ein bisschen abstrakt für die Leute ist. Weil auf der einen Seite hört man... Technologie ist ein bisschen kalt, oder? Weil zum Beispiel das autonome Fahren ein Algorithmus entscheidet und nicht mehr ein Mensch. Und das wirkt irgendwie intuitiv. Ja, aber sollte das eine Maschine machen? Und gleichzeitig ist das rationale Ich, das reinkommt, so wie du sagst, ja, aber wir retten mehr Menschenleben. Und Das Individuum versus das Ganze ist eine schwierige Debatte.
Adrian Locher [00:49:06]:
Das ist am Schluss eine philosophische Frage. Und richtigerweise eine, die geführt werden muss, bevor man die Regulation macht. Es ist eine Wertedefinition, eine Wertbestimmung, die man als Gesellschaft macht und sagt, was man will. Darum muss man die Debatte führen. Aber man muss sie auch mit allen Fakten führen. Man darf sie nicht so emotionalisieren. Was du vorhin gesagt hast, finde ich wirklich ganz, ganz wichtig. Am Menschen fällt es schwer, AI als Technologie zu verstehen. Das ist auch nicht sehr verwunderlich, weil es eine komplexe Technologie ist. Und wir können jetzt so argumentieren, ja die wenigsten Leute haben ja überhaupt verstanden wie Software funktioniert und wenn du nicht verstehst wie Software funktioniert, dann kannst du auch gar nicht verstehen wie KI funktioniert. Und das kann überhaupt erst dazu führen, dass es zum Teil aus meiner Sicht wirklich absurde Szenarien gibt, die ausgemalt werden, was die AI alles machen könnte. Ich sage, dass solche Diskussionen aus einer philosophischen Werten-Normen-Perspektive wichtig und relevant sind. Aus einer technologischen Perspektive spielt es keine Rolle, weil wir so weit davon entfernt sind, dass diese Szenarien auch nur annähernd realistisch sind. Dass es eigentlich aus Technologie-Sicht nicht viele Gründe gibt, diese zu führen.
Sandro Meyer [00:50:28]:
Ja, das Regulationsthema noch zu abschliessen. Was ich glaube, was halt schwierig ist, die Leute einzuordnen, ist ein bisschen... Auf der einen Seite hast du, sagen wir mal jetzt in Anführungsstrichen, politisch motivierte Leute wie Elon Musk, der ist... Oh, AI ist schlecht für alle und gleichzeitig holt er jetzt gleich 6 Milliarden für sein eigenes Jet-GPT. Und auf der anderen Seite hast du irgendwie Leute wie irgendwelche Forscher, die ganz am Anfang dabei waren bei AI und Leute, die zum Teil ganz oben drin sind, bei Technologiefirmen, die dort kündigen und sagen, sie können das nicht mehr verantworten. Und dann ist es halt für den Normalbürger so, Das zu unterscheiden, ist extrem schwierig.
Adrian Locher [00:51:17]:
Das ist so. Da muss man ganz klar sagen, es braucht Hilfe, zu unterscheiden, was Marketing ist und was real ist. Denn Wenn der Hersteller der grössten Technologie, die grösste Technologie-Company in diesem Bereich sagt, dass AI wirklich gefährlich ist und eng reguliert werden muss und Open Source sehr gefährlich ist, Dann sind die Signale dahinter, dass man sich als Kunde für Close Source entscheiden muss und zu uns kommt. Wir haben die ganze Relation, in der wir dafür arbeiten, dass die kleineren Player nicht kommen. Wir hätten sie dann im Griff. Das ist natürlich fatal. Da muss man aber sagen, dass sehr viel Eigennutz dort steckt. Es ist extrem kalkuliert. Es ist ein Playbook, das immer schon gut funktioniert hat und die Silicon Valley-Companies deutlich besser im Griff haben als die europäischen. Was am Schluss dazu führt, ist eine hohe Regulationsdichte. Was passiert mit einer hohen Regulationsdichte? Es ist eine grosse Hürde für neue, junge Companies, dort hineinzukommen, während sich die grossen sich all diese Aufwände leisten können, die Regulation einzuhalten.
Sandro Meyer [00:52:37]:
Abschliessend, wo siehst du echte Risiken?
Adrian Locher [00:52:44]:
Man muss ehrlicherweise sagen, an ganz vielen Orten. Es gibt Beispiele, die in diesem Sinne kleiner sind. Man kann sagen, dass der Impact nicht immer so gross ist. Aber nehmen wir an, Die ganzen Systeme, mit denen wir arbeiten, die auf menschlichem Input basieren, haben dann auch die ganzen menschlichen Biases. Wenn ich die nicht aktiv suche und herausnehme, habe ich dort ein Problem. Ich habe Einsatzbereiche, in denen ich Technologie als Bad Actor verwende, die enormes Schadenspotenzial haben, die zum Teil noch nicht einmal zur richtigen Öffentlichkeit angekommen sind. Wenn ich ein Large-Language-Model nehme, chemische Kampfstoffe zu erforschen, und dieses Language Model hat auch Zugriff auf die ganzen Medizindaten eines Körpers, dann weiss es am Schluss ganz genau, wie dieser Kampfstoff aussehen muss, der möglichst effektiv ist, ein Menschleben zu beenden. Das sind keine effektiven Beispiele, sondern die gibt es draussen. Dann kannst du sogar sagen, jetzt möchte ich noch wissen, wo ich die Inhaltsstoffe herbekommen muss, den Kampfstoff herzustellen. Das hat enormes Potenzial und leider negatives Potenzial. Und Das sind grosse Risiken. Das ist quasi ein nuklearer Meltdown, wenn man sich das als Szenario ausmalt. Kann man das jetzt regulieren oder verhindern, indem man sagt, man höre auf, mit der Technologie zu arbeiten? Ja, Theoretisch schon, nur wir wissen Der Mensch hat in den letzten 1'000 Jahren viele solche Punkte erreicht. Es hat nie funktioniert, dass man sagte, man höre auf, an dieser Technologie zu arbeiten. Es kann nur in die Richtung gehen, wo wir sagen, wir versuchen, die Technologie so sicher wie möglich zu machen. Und wir versuchen, den Missbrauch so stark wie möglich zu bestrafen, sodass es möglichst wenig Bad Actors gibt.
Sandro Meyer [00:54:59]:
Und wie du kurz erwähnt hast, kann man ja auch AI selber benutzen, die Bad Actors zu neutralisieren.
Adrian Locher [00:55:09]:
Die Frage ist einfach, wer ist schneller und den Schaden minimieren. Klassisches Arms Race, was man auch in der Cyber Security sieht. AI ist dort auch etwas Interessantes. Mit AI hast du momentan die Möglichkeit, Cyber Security Attacks quasi einfach ein Millionmal zu multiplizieren, weil es keinen Menschen mehr braucht, der sie ausführt. Du kannst der Maschine sagen, komm auf neue Ideen, wie du in das Netzwerk reindringen kannst, oder in den Menschen überrumpeln kannst und test all diese Möglichkeiten. Und dann nimm die, die am besten funktioniert haben und skalier sie auf alle Systeme heraus. Das ist quasi mit ein paar Mausklicks möglich. Gleichzeitig ist auf der anderen Seite quasi AI, die genutzt wird, Cyberattacken viel früher zu erkennen. Auch dort ist ein hoher Automationsfaktor drin, der nicht mehr der Mensch ansitzt, zu erkennen. Auch der Network Traffic ist aber sehr suspicious. Ich fange mal an, das abzublocken. Aber es ist ein Arms Race. Das wird natürlich jetzt auch eigentlich nur mit der stärkeren Verbreitung der Technologie zunimmt. Wenn ich vorher 1% sagte, dann meine ich das recht ernst. Wenn ich heute rauslaufe und mir einfach alle Anwendungen anschaue, die mich herum sind, so sehe ich in weniger als 1% der Fälle einen KI, der schon drin ist. Nehmen wir Medizin als Beispiel. Wenn ich heute in ein Krankenhaus reingehe, würde ich behaupten, dass vielleicht 1% der Prozesse in irgendeiner Form AI involviert ist. Dass das wahrscheinlich besser wäre, wenn es 20-30% sind, jetzt mal ein wenig konservativ zu bleiben, ist irgendwo anderen klar. Und dann ist einfach die Frage, wie schnell wir dort hinkommen. Jetzt
Sandro Meyer [00:57:01]:
haben wir über die Risiken gesprochen und das, was ja wahrscheinlich auch viele von den Podcastern interessiert, ist, was sind die Opportunities, was sind die Möglichkeiten? Und ich meine, schlussendlich sitzt du auch heute da, weil du da ja grosse Pläne hast und schon vieles gemacht hast. Du hast ja schon viele Planungen und vieles gemacht. Kannst du uns vielleicht kurz sagen, was Merantix macht? Was sind die spannendsten Anwendungen, die ihr jetzt, weil wir jetzt auf dem obersten Layer sind, was sind die spannendsten Anwendungen und wie entwickelt sich das?
Adrian Locher [00:57:45]:
Verantix ist eine Gruppe von AI-Unternehmen. Wir haben drei Standbeine. Das eine ist Investment. Das zweite Standbein ist Beratung, Implementierung, Consulting. Für KI, insbesondere für Mittelstand und grössere Unternehmen. Der dritte Teil ist die Ökosystem-Community. Wir haben in Berlin einen grossen Campus mit über 1'000 Leuten, die in KI arbeiten. Es sind 100 verschiedene Teams. Letztes Jahr hatten wir 300 Events mit 100'000 Leuten. Das macht uns tatsächlich zum grössten AI-Ökosystem in Europa. Der Teil, über den wir heute sprechen, ist der erste Investmentteil. Dort investieren und bauen wir AI-first-Companies. D.h. Unternehmen, die in Bereiche gehen, die vorher nicht möglich waren. Das ist Wir haben gewisse Fokusbereiche, die wir besonders spannend finden. Wir machen viel im Medizinbereich, viel im Biologiebereich, machen aber auch recht viel im Industrie-Robotics-Bereich. Wir haben vor Kurzem ein Legal Tech-Unternehmen gestartet. Wir haben ein FinTech-Unternehmen gestartet. Wir stellen uns dort sehr breit auf, Immer alles basierend auf der Grundlagentechnologie, die überhaupt dazu führt, dass ein neuartiges Geschäftsmodell möglich ist. Und das jetzt nicht zu abstrakt zu machen, ein paar Beispiele zu geben, was eigentlich dort dahinter steckt.
Sandro Meyer [00:59:15]:
Also vielleicht noch schnell, ihr baut nicht spezifisch ein neues Chatsheet? Nein, genau.
Adrian Locher [00:59:22]:
Wir gehen wirklich auf die Anwendungsebene. Beispiel an unser Unternehmen VARA im Bereich Brustkrebs-Screening. VARA ermöglicht ein automatisiertes Brustkrebs-Screening mit einem sehr hohen Grad von Automation, das deutlich weniger menschliches Involvement braucht. Es ermöglicht dadurch das Ausrollen einer solchen Technologie in Ländern, in denen zu wenige Ärztinnen und Ärzte sind, sogenannte Bevölkerungsweite, Population-wide Screenings durchzuführen. Ja. Population-wide Screenings sind in den entwickelten westlichen Ländern Standard. Es gibt etwa 30 Länder in diesen sogenannten government-funded screening programs. Was heisst Screening? Screening bedeutet, dass du alle x-Jahre in eine Kontrolluntersuchung gehst, in der es darum geht, zu feststellen, ob etwas oder nichts ist. Und wenn ein Verdacht ist, geht es dann weiter in einen medizinischen Prozess, in dem dann ein Biopsie entsteht und wenn effektiv ein Krebs da ist, wird er behandelt. Und Das Screening ist aber sehr aufwendig, weil du heute dafür medizinisches Personal brauchst und dann auch Ärzte, die sich all diese Bilder anschauen. Und das kann die Maschine sehr gut. Mit dieser Technologie hat jetzt VARA dafür gesorgt, dass in aktueller Indien und Ägypten erste Programme ausgerollt werden, bei denen eine sehr grosse Zahl von Menschen innerhalb kürzester Zeit gescreent werden kann. Dadurch kann man entscheiden, welche von diesen Menschen in Folgeuntersuchungen und welche davon sind healthy. Der Algorithmus, den VARA entwickelt hat, ist mitweilen genauer als jegliche menschliche Radiologe. Also er kennt Krebs, den eine radiologe nicht finden würde. Und das ist nicht nur einfach irgendetwas, das man behauptet, sondern das ist auch mit Publikationen quasi hinterlegt. Jetzt, VARA macht aber nicht nur einfach den Algorithmus, sondern WARA nutzt den Algorithmus, solche Screening-Programme in Ländern anzubieten, in denen zu wenige Ärztinnen und Ärzte existieren, das überhaupt zu machen. Das schafft also in dieser Form ein neues Geschäftsmodell, das anders in einem anderen Land gar nicht möglich wäre. Und hat gleichzeitig natürlich einen massiv positiven gesellschaftlichen Impact, weil du in der Lage bist, eine Technologie auszurollen, die so in diesem Land sonst gar nicht umsetzbar wäre.
Sandro Meyer [01:02:00]:
Und sprechen wir da jetzt auch Screening im Sinne von, okay, das ist jetzt eine Anwendung für Screening und die kann man dann multiplizieren oder ist das spezifisch auf Brustkrebs angewendet?
Adrian Locher [01:02:12]:
Das ist eine spezifische Anwendung auf Brustkrebs, aber kann natürlich in allen anderen Fällen, in denen medizinisches Screening sinnvoll ist, ebenso angewendet werden. Ob es Lungenkrebs ist, ob es Prostatenkrebs ist. In diversen Ländern gibt es auch dort Medikamentenprogramme. Das kann man natürlich beliebig ausweiten. Ich glaube, das ist allen klar. Je mehr du in der Lage bist, medizinische Daten in einer regelmässigen Form zu verarbeiten, desto früher bist du in der Lage, Abweichungen zu erkennen. Wenn du in der Lage bist, Abweichungen früh zu erkennen, kannst du typischerweise deutlich früher und dadurch auch effizienter behandeln. Dadurch hast du eine gesündere Menschheit.
Sandro Meyer [01:02:59]:
Wenn ich das richtig verstanden habe Also, ihr schaut eigentlich Möglichkeiten von Anwendungen an und versucht, relativ schnell auf eine gewisse Nische hineinzugehen. Das ist jetzt nicht einmal nur Nische-Screening, aber wir sagen sogar Nische-Screening-Push-Caps, sodass ihr möglichst schnell einen Impact habt.
Adrian Locher [01:03:18]:
Genau, wir haben uns einen Bereich ausgewählt, in dem wir sagten, dass wir glauben, dass die Technologie schon sehr viel bewirken kann. Und gleichzeitig kann man, wenn man einen Impact schafft, einen effektiven Unterschied machen. Es sterben pro Jahr 1 Mio. Frauen an Brustkrebs weltweit. Typischerweise, weil es zu spät erkannt wird. Wenn du dort ein System entwickelst, das at scale ausgerollt werden kann, und dafür viel mehr Frauen in der regelmässigen Screening hast, hast du nicht nur einen Business-Modell-Impact, sondern auch einen gesellschaftlichen positiven Impact.
Sandro Meyer [01:03:58]:
Ja, und das sind die, die sterben. Dann gibt es wahrscheinlich noch das Multiplen von dem. Und Hast du noch ein, zwei andere Beispiele?
Adrian Locher [01:04:07]:
Genau, ein anderes Beispiel ist das Unternehmen Cambrium. Cambrium ist ein Biotech- oder Tech-Bio-Unternehmen. Tech-first kommt, Bio danach, was eigentlich damit möglich ist. Cambrium macht biobasierte Materialien. Ja. Und die AI im Prozess wird genutzt, Proteine zu designen, die schlussendlich die neuartigen Materialien kreieren. Ein Protein kann man sich vorstellen wie ein Kraftwerk, das neue Dinge produziert. Wenn man sich die biologischen Systeme anschaut, ist das Protein immer die Grundlage für die biologischen Systeme. Aus diesem entsteht etwas. Wir nutzen bei Cambrium Proteine, die AI-basiert designt werden, neuartige Materialien zu kreieren, die ganz bestimmte Eigenschaften haben. Es technisch zu zeigen, wir können auch so beschreiben, wir haben eine Entwicklungssprache, wir haben eine Programmiersprache, mit der du neuartige Materialien programmieren kann, die ganz bestimmte Eigenschaften haben. Das erste Beispiel, das das Unternehmen bereits kommerzialisiert erste ist Kollagen für die Kosmetikindustrie mit ganz bestimmten Eigenschaften, welche bestimmte Effekte auf der Haut haben, welche in einer Creme verarbeitet werden, welche in Lebensmittel verarbeitet werden können. Das zweite Beispiel sind Fasern. Fasern, welche in der Bekleidungsindustrie verwendet werden, die ganz bestimmte Eigenschaften haben. Hitzeabweisend, Nässeabweisend usw. Ähm, die so, wenn man sie im Labor nach dem Trial-and-Error-Prinzip designt...
Sandro Meyer [01:05:52]:
Ja, genau das habe ich wieder gefragt, ja.
Adrian Locher [01:05:54]:
...Braucht es vielleicht vier bis fünf Jahre. Cambrium arbeitet das mit dem Computer, mit der KI, in ein paar Wochen.
Sandro Meyer [01:06:02]:
Wieso? Weil es einfach so viele Experimente macht? Ganz genau.
Adrian Locher [01:06:06]:
Ja. Ganz genau. Also du kannst dir quasi vorstellen, die Grundlage der Proteine sind auch wiederum Genomsequenzen, die du kombinierst, damit du ganz bestimmte Proteine kreierst. Und Die Maschine, die KI, ist quasi in der Lage, ein paar Milliarden mögliche Gensequenzen auszutesten und kann dann sagen, welche die höchsten Wahrscheinlichkeiten haben, dass sie ganz bestimmte Eigenschaften, die du eigentlich am Suchen bist, haben. Im Prinzip ist es auch eine Art wie ein Drug Discovery Mechanismus, welches aber nicht auf Pharma angewendet wird, sondern das Ziel ist, neuartige Materialien zu schaffen. Cambrium auch dort, Thema Geschäftsmodell, Cambrium macht nicht einfach eine Software, die sie dann verkauft in einem SaaS-Modell, sondern Cambrium macht zusammen mit ihren Kunden neuartige Materialien und hat einen bestimmten Teil der IP, der auch Cambrium gehört. Das heisst, dass diese Materialien auch auslizenziert werden, wenn sie an andere Kunden verkauft werden.
Sandro Meyer [01:07:09]:
Ich habe einen spannenden Bogen gefunden, wo wir heute stehen. Und dann diese oberflächlichen Sachen, die wir heute als Anwender sehen, die Browsers von den Handy90er, die heute die Chat-GBT, Gemini und all die verschiedenen Chat-Programme darstellen. Hinzu all die Risiken, die da draussen sind, wo es vielleicht noch nicht so klar ist und wo das Flaschenhals besteht. Und äh Wir könnten noch viel weitergehen in all diesen Themen. Ich fand es spannend, auch zu sehen, ob die Dinge, die du gerade erwähnt hast, weniger sexy für den Endverbraucher sind. Sie klingen so Okay, Ich sehe den Nutzen, aber dort ist auch der Impact drin.
Adrian Locher [01:08:05]:
Der ist tatsächlich sehr gross.
Sandro Meyer [01:08:09]:
Wenn wir
Adrian Locher [01:08:09]:
jetzt noch mal die Biomaterialien betrachten Wenn du dir heute den CO2-Footprint von uns Menschen anschaust, dann basiert ein guter Teil auf den Materialien, die wir verwenden, die auf petrochemischer Basis, auf Ölbasis, entstehen, weil sie besonders widerstandsfähig sind, weil sie ganz bestimmte Eigenschaften haben, weil sie auch skalierbar damit herstellbar sind, aber ganz hoffentlich auch zu einem negativen CO2-Footprint massiv dazu beitragen. Und dann, in der Theorie zumindest, heute sagt die Wissenschaft, dass aktuell 60% von all diesen Materialien auch auf biologischer Basis entstehen könnten. Wenn man sich das vorstellt Cameroon setzt genau auf diesen Prozess. Es stellt biobasierte Materialien her, die sonst normalerweise petrochemische Prozesse dafür brauchen. Wenn du das ersetzen kannst, haben wir einen ziemlich grossen Impact auf die CO2-Seite.
Sandro Meyer [01:09:12]:
Ja, und dann, wenn ich richtig verstehe, ist das eine Frage der Zeit bei AI. Weil es versucht einfach alles zu tun. Spannend. Jetzt, wir wir langsam zum Schluss dieses Podcasts. Was wir am Schluss immer fragen, ist eine Challenge für die Audience, für die, die zuhören, die zuschauen. Die vielleicht auch mit Gesprächen zu tun hat. Etwas, das man ausprobieren könnte. Etwas, das man ins Leben integrieren kann, was auch immer. Ich überlasse dir das völlig. Was wäre eine Challenge, die du gerne denen zuschauen oder zuhören würdest?
Adrian Locher [01:09:57]:
Ich möchte, dass ihr alle rausgeht und euch überlegt, welche fünf bis zehn Themen in eurem Umfeld mit KI verändert und umgesetzt werden könnten. Insbesondere im Unternehmensumfeld, im eigenen Unternehmen. Was sind die 5-10 Themen, die man ausprobieren müsste, ob das geht. Und es dann einfach machen. Ich glaube, eine der grossen Challenges, an denen wir jetzt noch stehen, ist, es werden viel zu wenig Projekte umgesetzt. Es wird viel zu wenig echte KI wirklich entwickelt. Also ich appelliere daran, geht raus, investiert, testet, macht es früh. Es sind lieber die, die in der Anfangsphase des Internets schon umherexperimentieren. Wie kann man das einsetzen, sein eigenes Geschäft zu entwickeln? Warte nicht auf die zweite und dritte Welle, in die vielleicht schon die ersten kommen, die dich überrollen. Das ist ganz klar das Appell «Invest now».
Sandro Meyer [01:11:01]:
Und vielleicht
Adrian Locher [01:11:01]:
der zweite Appell, der ist dann vielleicht ein bisschen enger gefasst. Es wird nicht nur von Unternehmen momentan viel zu wenig in KI investiert, sondern es wird auch von grossen, institutionellen Investoren viel zu wenig in die frühe Phase investiert. Insbesondere in Europa. In Europa können die meisten institutionelle Investoren gar nicht in der frühen Phase venture capital investieren. Und das ist aus meiner Sicht ein riesiges Problem. Und zwar von zwei Seiten. Zum einen von der Innovationsgeschwindigkeitsseite. Innovation braucht Investments und die müssen in grossem Stil vorhanden sein. Das können nicht nur private Akteure machen, das müssen auch institutionelle sein. Und das zweite ist der Wohlstandsfaktor. Also Wenn wir glauben, dass unsere institutionellen Anleger, die Pensionskassen z.B. Verwalten, in der Lage sind, über das Umlagefinanzierungsmodell die zukünftigen Pensionen zu finanzieren, dann good luck with that. Das wird sicher nicht funktionieren. Und wenn ich in die Duos-Säuren schaue, wo auch ein Teil von unseren Investoren wiederum herkommt, so ist halt einfach Venture Capital die mit Abstand am besten performende Asset Class, auch für die wirklich konservativsten Anleger, die das aber seit 30, 40 Jahren machen und damit auch zeigen, dass es eben keine höheren Risiken gibt, sondern es kommen insbesondere extrem viele höhere Erträge daraus. Dort müssen wir uns in Europa, in der Schweiz, ganz schnell bewegen.
Sandro Meyer [01:12:36]:
Du bist leider nicht der Einzige, der das auf dem Podcast sagt. Ich habe dich kurz bevor wir aufgenommen haben, gefragt. Ich meine, ihr macht jetzt einen neuen Fonds und versucht Geld einzusammeln und es kommt einfach immer noch zu viel. Es kommt einfach immer noch viel aus den USA und aus anderen Ländern und das ist schade. Es wäre ja eigentlich Man müsste einfach so ein bisschen
Adrian Locher [01:13:04]:
Ja, es braucht ein anderes Bild, ein anderes Framing. Auf Deutsch sagt man ja Risikokapital. Wenn man von Venture Capital spricht, die englische Übersetzung ist eine ziemlich andere. Die eine fokussiert sich auf Risiken, die andere auf Chancen. Sprache ist ein wichtiger Faktor, wie sich der Mensch verhält. Da müssen wir etwas ändern. Ich sage es natürlich aus der Perspektive, dass wir selbst einen Fonds am Raisen haben, aber auch aus einer grösseren Perspektive des gesamten Wohlstandes, den wir nicht schlicht und ergreifend halten können, wenn wir unsere Pensionssysteme nur auf dem Umlagemodell basieren.
Sandro Meyer [01:13:47]:
Vielen Dank für deine Zeit, Adrian. Und ihr findet Adrian seine Firma, sein neuestes, ja noch so neu ist es eigentlich nicht mehr, wenn schon, so in der Sekunde 2016, merantics.com, Das ist m-e-r-a-n-t-i-x.com. Da könnt ihr schauen, was er alles macht. Er hat nur über einen Bruchteil seiner Portfoliofirma gesprochen. Wenn ihr tatsächlich seinem Aufruf folgt und auch mal schaut, was es alles Spannendes umsetzen gibt in eurem Bereich, in dem ihr arbeitet, könnt ihr sich gerne mit Adrian Kontakt aufnehmen.
Adrian Locher [01:14:22]:
Jederzeit. Sehr gerne. Danke, Sandro.
Sandro Meyer [01:14:26]:
Vielen Dank fürs Zuhören von diesem Gespräch mit Adrian Locher. Wenn du diesen Podcast unterstützen möchtest, abonniere dich schon auf YouTube oder in deinem Podcast Player und bewerte uns doch gleich, wenn du schon dabei bist. Und jetzt lasse ich mich euch verabschieden mit ein paar Worten von Peter Drucker. Die Optimisten des 20. Jahrhunderts waren so naiv, von der Technik das Paradies zu erwarten. Aber es war genauso naiv von den Pessimisten des 21. Jahrhunderts, die Technik zum Sündenbock für so alte Unzulänglichkeiten zu machen, wie die menschliche Blindheit, Grausamkeit, Unreife, Harbgier und sündhafte Hochnäsigkeit. Die Technologie ist weder gut noch böse. Die Moral steckt nicht im Werkzeug, sondern im Menschen, der es führt. Vielen Dank fürs Zuhören und bis zur nächsten Episode des Swiss Pioneers Podcast.
Merantix Founder & General Partner - investing in AI-first companies
Adrian Locher ist Mitbegründer und CEO von Merantix, dem weltweit ersten Venture Studio für KI mit Sitz in Berlin. Seit 20 Jahren ist er als Serienunternehmer und Investor tätig und hat mehr als 10 Unternehmen in Europa und den USA gegründet, darunter im Bereich Künstliche Intelligenz, digitale Gesundheitsversorgung und E-Commerce. Adrian besitzt einen Abschluss in Betriebswirtschaft und Volkswirtschaftslehre von der Universität St. Gallen (HSG). Sein vorheriges Unternehmen, ein führendes Schweizer E-Commerce-Unternehmen, verkaufte er bei einem Umsatz von 100 Millionen Euro. Adrian hat zahlreiche Auszeichnungen erhalten, ist Präsident des START Fund, Europas größter Initiative für Jungunternehmer, und Mitglied des Vorstands seiner Alma Mater.
Oder in seinen eigenen Worten:
"Ausgebildeter Economist, Ingenieur im Herzen. Serienunternehmer, Builder und Investor im Bereich Künstliche Intelligenz. Hat beim Aufbau und der Skalierung von mehr als 20 Unternehmen geholfen. Derzeit am meisten fasziniert davon, technologische Disruptionen im Gesundheitswesen, in der Biotechnologie, im Klima, im Quantenbereich und in der Bildung voranzutreiben."
Hier sind ein paar tolle Episoden zum eintauchen.