DeepMind
DeepMind (früher Google DeepMind) ist ein Unternehmen, das sich auf die Programmierung einer künstlichen Intelligenz (KI) spezialisiert hat. DeepMind wurde im September 2010 gegründet und 2014 von Google Inc. übernommen.
DeepMind | |
---|---|
Rechtsform | |
Gründung | 23. September 2010 |
Sitz | London |
Leitung | Demis Hassabis (CEO) Lila Ibrahim (COO) |
Mitarbeiterzahl | > 1000[1][2] (2017: 700) |
Branche | Künstliche Intelligenz |
Website | www.deepmind.com |
Stand: 30. November 2020 |
Geschichte
DeepMind Technologies war ein britisches Start-up, gegründet 2010 von Demis Hassabis, Shane Legg und Mustafa Suleyman.[3] Zu den ersten Geldgebern gehörten die Venture-Capital-Unternehmen Horizons Ventures und Founders Fund sowie der Business Angel Scott Banister.[4]
Am 26. Januar 2014 gab der US-Konzern Google bekannt, DeepMind Technologies übernommen und damit das ebenfalls an DeepMind interessierte Facebook ausgestochen zu haben – es war die bis dahin größte Übernahme des kalifornischen Unternehmens in Europa. Der Preis blieb geheim, Branchenkenner gingen von einem Kaufpreis von etwa 500 Millionen Dollar (365 Millionen Euro) aus.[5][6][7] Mehrere Milliardäre hatten bereits in DeepMind investiert, darunter Elon Musk, CEO des privaten Raumfahrtunternehmens SpaceX und Elektroautohersteller Tesla Motors, Paypal-Gründer und ursprünglicher Facebook-Geldgeber Peter Thiel, der Skype-Mitgründer Jaan Tallinn sowie der Hongkonger Magnat Li Ka-shing von Horizon Ventures, einer der mächtigsten Männer Asiens.[8]
Im Jahre 2014 erhielt DeepMind die Auszeichnung „Company of the Year“ vom Cambridge Computer Laboratory.[9][10]
Nach Übernahme wurde das Unternehmen in Google DeepMind umfirmiert. Google setzte auch einen Ethikrat ein, der sicherstellen soll, dass die Technologie von DeepMind nicht missbraucht wird. Die Struktur des Ethikrates blieb unklar.[11]
2015 veröffentlichte das Unternehmen die Ergebnisse eines Forschungsprojektes, bei der die Künstliche Intelligenz alte Atari-Spiele selbstständig erlernen sollte. Nach Angaben von Google DeepMind gelang es der KI, sowohl die Spielregeln zu erlernen als auch Erfolgstaktiken selbstständig zu entwickeln.[12]
Im Dezember 2019 kündigte einer der Gründer, Suleyman, an, dass er DeepMind verlassen würde, damit er bei Google arbeiten kann.[13]
Forschung
Das offizielle Unternehmensziel von Google DeepMind ist, Intelligenz zu verstehen („Solve Intelligence“).[3] Im Gegensatz zu anderen Künstlichen Intelligenzen wie beispielsweise Deep Blue von IBM hat Google DeepMind kein vordefiniertes Ziel und ist somit flexibler in der Anwendung für verschiedene Probleme.[14] Google DeepMind unterscheidet sich ebenfalls in der grundsätzlichen Strukturierung der Künstlichen Intelligenz. Statt ausschließlich auf ein neuronales Netz zu setzen, erweiterte man die KI mit einem Kurzzeitspeicher, um somit die Fähigkeit eines künstlichen Gedächtnisses zu simulieren.[15] Die Entwickler von Google DeepMind bezeichnen die Künstliche Intelligenz deshalb auch als „neuronale Turingmaschine“ und nicht als neuronales Netz.[16]
AlphaGo
Bei DeepMind wurde AlphaGo entwickelt, ein Computerprogramm, das ausschließlich das Brettspiel Go spielt. Im Oktober 2015 besiegte es den mehrfachen Europameister Fan Hui.[17] Es ist damit das erste Programm, das unter Turnierbedingungen einen professionellen Go-Spieler schlagen konnte. Zwischen dem 9. und 15. März 2016 trat AlphaGo gegen den südkoreanischen Profi Lee Sedol, 9. Dan, an. Das Programm gewann nach fünf Runden mit 4:1.[17]
Im Jahre 2017 wurde eine verbesserte Version namens AlphaGo Zero veröffentlicht, welche AlphaGo 100 zu 0 schlug, wobei die Strategien von AlphaGo Zero autonom erstellt wurden. Die Lernphase dauerte nur drei Tage, wobei AlphaGo im Vergleich Monate dazu brauchte.[18]
AlphaZero
AlphaZero ist eine im Dezember 2017 erstmals in einer Veröffentlichung beschriebene Verallgemeinerung des oben erwähnten AlphaGo Zero. AlphaZero lernte die Beherrschung der drei Brettspiele Shōgi, Schach und Go auf höchstem Niveau nur anhand der Spielregeln und durch intensives Spielen gegen sich selbst, ohne die Nutzung von Daten zum Vorgehen menschlicher Spieler.
AlphaStar
Im Januar 2019 wurde AlphaStar vorgestellt, ein KI-Programm, das das Echtzeit-Strategiespiel StarCraft II spielt. Wie AlphaGo handelt es sich dabei um ein künstliches neuronales Netz, das zunächst menschliche Spieler imitierte und dann mit Reinforcement Learning trainiert wurde. In zwei Sätzen zu je fünf Spielen gegen die professionellen Spieler Dario „TLO“ Wünsch und Grzegorz „MaNa“ Komincz gewann AlphaStar jedes Spiel. Die Anzahl der Aktionen pro Minute wurde auf ein für Menschen übliches Maß beschränkt. Im Gegensatz zu menschlichen Spielern hat AlphaStar jederzeit einen vollständigen Überblick über die sichtbaren Teile der Karte, fokussiert sich aber dennoch immer nur auf einzelne Bereiche. Ein bei der Vorstellung live übertragenes Spiel konnte MaNa für sich entscheiden. Besondere Stärken von AlphaStar waren Micromanagement und Multitasking. Im letzten Spiel wurde sie durch ungewöhnliche Aktionen des menschlichen Spielers aus dem Tritt gebracht.[19] Eine Weiterentwicklung trat ab Juli 2019 anonym in Ranglisten gegen echte Spieler an und erreichte in allen 3 "Rassen" die höchste Liga.[20]
AlphaFold
Seit 2016 arbeitete DeepMind auch am Problem, die dreidimensionale Struktur der Proteine nur anhand der Abfolge der Aminosäuren des Proteins vorherzusagen.[21][22] 2018 nahm das von DeepMind für dieses Problem entwickelte KI-Programm AlphaFold am Gemeinschaftsexperiment CASP teil.[21] Dies ist eine Art Wettbewerb, bei dem KI-Programme verschiedener Institutionen genutzt werden, um die Strukturen von Proteinen vorherzusagen. Diese sind den CASP-Veranstaltern bekannt, aber der Öffentlichkeit und den CASP-Teilnehmern nicht. So ist es möglich, die Qualität der Vorhersagen zu beurteilen. DeepMinds AlphaFold schnitt dabei bereits bei seiner ersten Teilnahme 2018 besser ab als die Programme der etwa 100 weiteren Teams.[21] Beim nächsten CASP-Wettbewerb im Jahr 2020 war die Vorhersagequalität des zweiten von DeepMind entwickelten Programms AlphaFold2 so gut, dass Wissenschaftler und auch DeepMind urteilten, dass das jahrzehntealte Problem der Proteinfaltung erstmals als gelöst betrachtet werden könne – das sei ein Meilenstein der Strukturbiologie.[22][23] Am 15. Juli 2021 veröffentlichte DeepMind eine quelloffene Version von AlphaFold 2 und veröffentlichte die Funktionsweise im Fachjournal Nature.[24][25]
MuZero
In den Jahren 2019 und 2020 veröffentlichte eine Forschergruppe von DeepMind den Algorithmus MuZero, der eine Baumsuche mit einem individuell entwickelten Machine-Learning Model kombiniert.[26][27] MuZero beruht auf Deep Reinforcement Learning und stellt eine Weiterentwicklung der schon in AlphaGo, AlphaGo Zero und AlphaZero verwendeten Technologien dar. Im Gegensatz zur "Alpha"-Serie von KI-Systemen ist MuZero nicht mehr auf eine bestimmte Wissensdomäne oder Anwendungsbereich festgelegt. Es ist keine Voreinstellung von Regeln mehr nötig und auch keine durch Menschen gesteuerte Initialisierung mit Trainingsdaten. Das MuZero-Softwaresystem erlernt diese Regeln selbstständig durch Beobachtung der Umgebung, und vor allem verfeinert es sein selbst aufgestelltes Modell und bestimmte Aspekte des eigenen Entscheidungsprozesses. Ein Vergleich des fertig optimierten MuZero mit anderen KI-Systemen ergab eine mindestens gleichwertige Leistung bei Computergo und Computerschach, aber auch in "Atarigames" wie Ms. Pac-Man.
WaveNet
WaveNet ist ein neuronales Netzwerk, das ursprünglich ab ca. 2014 zum Zweck der verbesserten, natürlicher klingenden Text-to-Speech-Synthese (TTS) entwickelt wurde, sprich, für menschlicher klingende Vorlesesysteme, indem das Programm natürliche menschliche Stimmen analysieren sollte, um so auch natürlicher klingende Sprache beim Vorlesen von Texten erzeugen zu können.[28] Seit März 2018 bietet Google das auf WaveNet basierende Vorleseprogramm Cloud Text-to-Speech im Rahmen von Google Assistant an.[29][30]
Inzwischen forscht DeepMind aber auch aktiv daran, mit WaveNet existierende individuelle menschliche Stimmen nicht nur zum Vorlesen von Texten möglichst exakt nachzubilden, um es mit ähnlichen Funktionen wie etwa das 2016 von Adobe Inc. vorgestellte Adobe Voco auszustatten. Ein Forschungsbericht vom Juni 2018 mit dem Titel Disentangled Sequential Autoencoder[31] ("Entflochtener sequentieller, automatischer Stimmgenerator") stellt fest, dass es erfolgreich gelungen sei, WaveNet dafür einzusetzen, die Stimme in einer existierenden Tonaufnahme durch jegliche andere reale Stimme zu ersetzen, die denselben Text spricht ("content swapping"). Um diese Fähigkeit zu ermöglichen, seien ca. 50 Stunden an Aufnahmen jeweils der Quell- wie Zielstimme nötig, mit denen WaveNet die grundlegenden Eigenschaften der beiden Stimmen erst lernen muss (wobei es selbstständig ein jeweils eigenes, von den Sprachaufnahmen abstrahiertes Modell der zu erlernenden Stimme erstellt), bevor es die Stimmkonvertierung bei jeder beliebigen neuen Tonaufnahme in annehmbarer Qualität durchführen kann. Die Autoren des Forschungsberichts betonen außerdem, dass WaveNet dazu in der Lage sei, statische und dynamische Eigenschaften voneinander zu unterscheiden (zu: "entflechten"), d. h., das Programm trenne automatisch zwischen den bei der Stimmkonvertierung beizubehaltenden Eigenschaften (Textinhalt, Modulation, Geschwindigkeit, Stimmung usw.) und den zu konvertierenden Grundeigenschaften der Quell- wie Zielstimme.
In einem Nachfolgebericht mit dem Titel Unsupervised speech representation learning using WaveNet autoencoders[32] ("Selbständiges Sprachmodellernen mit WaveNet") vom Januar 2019 hieß es, dass DeepMind die Unterscheidung statischer von dynamischen Stimmeigenschaften von WaveNet weiter verbessert habe. In dem weiteren Nachfolgebericht Sample Efficient Adaptive Text-to-Speech[33] ("Samplingeffizienz bei adaptiver Text-to-Speech-Synthese") vom September 2018 (letzte Revision Januar 2019) berichtet DeepMind, das Minimum an benötigten Sprachaufnahmen für das Sampeln einer Stimme inzwischen auf wenige Minuten reduziert zu haben.
Im bereits 2014 veröffentlichten Bericht Towards End-to-End Speech Recognition with Recurrent Neural Networks[34] ("Zur vollständigen Spracherkennung mittels rückgekoppelter neuronaler Netze") verwies DeepMind auf erfolgreiche Versuche, WaveNet zur automatischen Verschriftlichung von existierenden Sprachaufnahmen einzusetzen.
Der Forschungsbericht Large-Scale Visual Speech Recognition[35] ("Allgemein einsetzbare optische Spracherkennung") vom Juli 2018 (letzte Revision vom Oktober 2018) geht auf erfolgreiche Versuche ein, WaveNet zum Lippenlesen bei menschlichen Lippenbewegungen auch in völlig stummen Videoaufnahmen einzusetzen, wobei das Programm professionelle menschliche Lippenleser beim Erraten der tatsächlichen Laute bereits deutlich übertreffe. Dieses Feature scheint als eigenständiges WaveNet-Plugin unter dem Titel LipNet entwickelt zu werden.
Gesundheitsdaten
Im Februar 2016 gab die Firma bekannt, dass es in Großbritannien mit der Gesundheitsbehörde National Health Service zusammenarbeitet, um eine iPhone-App mit dem Namen „Streams“ zu entwickeln, allerdings sei es noch zu früh, um sagen zu können, wo KI angewandt werden könnte.[36] Diese soll dabei helfen, Patienten zu überwachen, die an einem „Nierenschaden“ leiden.[37] April 2016 veröffentlichte das Fachmagazin „New Scientist“ Details der Vereinbarung, demnach erhält Google den Zugriff auf die Daten von 1,6 Millionen NHS-Versicherten, die jährlich in den drei Krankenhäusern – Barnet, Chase Farm and the Royal Free – des Royal Free NHS Trust behandelt werden.[38] Die weitreichende Vereinbarung erlaubt einen Datenaustausch weit über das bekannt gegebene hinaus.[38] Enthalten sind die Daten von HIV-positiven Patienten, Drogenabhängigen oder Frauen, die Abtreibungen vornehmen ließen. Eine Opt-out-Möglichkeit (Möglichkeit der Verweigerung) für Patienten gab es nicht. Neben den pathologischen und radiologischen Ergebnissen werden die Daten der Intensivmedizin und der Notfallabteilungen übertragen sowie die vollständigen Tagesaktivitäten der Kliniken, der Zustand und die Unterbringung der Patienten und die Krankenhausbesuche (wer und wann) übermittelt. Darüber hinaus bedeutet der Datenzugang auf die zentralen Aufzeichnungen aller NHS-Krankenhaus-Behandlungen in Großbritannien, dass es auf historische Daten der vergangenen fünf Jahre zurückgreifen kann – zusätzlich zu den neu auflaufenden Daten.
Kritiker fürchten dabei um die Intimsphäre und den Datenschutz. Das Personal von Google soll aber nicht in der Lage sein, bestimmte Patienten zu identifizieren, und die Daten sollen nicht mit Google-Konten oder Produkten verbunden werden, erklärte Mustafa Suleyman, Leiter des Bereichs „Angewandte KI“ bei DeepMind.[39][40][41]
DeepMind Ethics and Society
Im Oktober 2017 kündigte DeepMind an, das Forschungsabteil DeepMind Ethics & Society zu gründen[42], welche sich mit den folgenden Themen beschäftigen soll: Privatsphäre, Transparenz und Gerechtigkeit und wirtschaftliche Folgen davon.
Einzelnachweise
- Sam Shead: Why the buzz around DeepMind is dissipating as it transitions from games to science. 5. Juni 2020, abgerufen am 6. Dezember 2020 (englisch).
- Sam Shead: DeepMind solves 50-year-old ‘grand challenge’ with protein folding A.I. 30. November 2020, abgerufen am 6. Dezember 2020 (englisch).
- Google DeepMind Unternehmens Website.
- "DeepMind Technologies Investors" (abgerufen am 12. März 2015).
- "DeepMind: Google kauft Start-up für künstliche Intelligenz", Spiegel.de, 27. Januar 2014
- "Google Acquires Artificial Intelligence Startup DeepMind For More Than $500M", TechCrunch, abgerufen am 12. März 2015.
- "Google buys UK artificial intelligence startup Deepmind for £400m", The Guardian, abgerufen am 12. März 2015.
- Googles Superhirn: DeepMind-Chef Demis Hassabis baut die ultimative Denkmaschine.
- Jan Samols: Hall of Fame Awards. 23. Januar 2018, abgerufen am 17. Mai 2020 (englisch).
- "Hall of Fame Awards: To celebrate the success of companies founded by Computer Laboratory graduates." von Cambridge University (abgerufen am 12. März 2015).
- Google Beat Facebook for DeepMind, Creates Ethics Board.
- "Google KI DeepMind erlernt selbstständig alte Spieleklassiker", Bluemind.tv, 10. März 2015.
- Subscribe to read | Financial Times. Abgerufen am 17. Mai 2020.
- Playing Atari with Deep Reinforcement Learning, arxiv:1312.5602v1
- "Google DeepMind: Die künstliche Intelligenz" von Bluemind.tv (abgerufen am 12. März 2015)
- Neural Turing Machines, arxiv:1410.5401
- Google-Software besiegt Go-Genie auch im letzten Match. FAZ, 15. März 2016, abgerufen am 13. September 2017.
- Rory Cellan-Jones: Google DeepMind: AI becomes more alien. In: BBC News. 18. Oktober 2017 (Online [abgerufen am 18. Mai 2020]).
- James Vincent: DeepMind’s AI agents conquer human pros at Starcraft II. In: The Verge. 24. Januar 2019, abgerufen am 25. Januar 2019 (englisch).
- AlphaStar: KI spielt StarCraft 2 auf Profiniveau. In: spektrum.de. 30. Oktober 2019, abgerufen am 9. Dezember 2020.
- Kyle Wiggers: Deepmind’s AlphaFold wins CASP13 protein-folding competition. In: VentureBeat. 3. Dezember 2018, abgerufen am 5. Dezember 2020 (amerikanisches Englisch).
- Eva Wolfangel: KI: DeepMind will Problem der Proteinfaltung gelöst haben. In: www.spektrum.de > Biologie. Spektrum der Wissenschaft Verlagsgesellschaft mbH, 30. November 2020, abgerufen am 5. Dezember 2020.
- Chris Velazco: DeepMind's latest AI breakthrough can accurately predict the way proteins fold. In: www.engadget.com. 30. November 2020, abgerufen am 5. Dezember 2020 (englisch).
- Ewen Callaway: Open-Source-Software: Jeder kann jetzt Proteine falten. In: www.spektrum.de. Spektrum der Wissenschaft, 19. Juli 2021, abgerufen am 7. August 2020.
- J. Jumper, R. Evans et al.: Highly accurate protein structure prediction with AlphaFold. In: Nature. 15. Juli 2021, doi:10.1038/s41586-021-03819-2.
- Julian Schrittwieser, Ioannis Antonoglou, Thomas Hubert, Karen Simonyan, Laurent Sifre: Mastering Atari, Go, Chess and Shogi by Planning with a Learned Model. 21. Februar 2020, arxiv:1911.08265.
- MuZero: Mastering Go, chess, shogi and Atari without rules. Abgerufen am 28. Dezember 2020.
- Oord u. a. (2016): WaveNet: A Generative Model for Raw Audio, Cornell University, 19. September 2016
- Novet, Jordan (2018): Google is finding ways to make money from Alphabet's DeepMind A.I. technology, 31. März 2018, CNBC
- Aharon, Dan (2018): Introducing Cloud Text-to-Speech powered by DeepMind WaveNet technology, Google Cloud Platform Blog, 27. März 2018
- Li & Mand (2018): Disentangled Sequential Autoencoder, 12. Juni 2018, Cornell University
- Chorowsky u. a. (2019): Unsupervised speech representation learning using WaveNet autoencoders, 25. Januar 2019, Cornell University
- Chen u. a. (2018): Sample Efficient Adaptive Text-to-Speech, 27. September 2018, Cornell University. Letzte Revision desselben Berichts vom Januar 2019.
- Graves & Jaitly (2014): Towards End-to-End Speech Recognition with Recurrent Neural Networks, 2014, Cornell University
- Shillingford u. a. (2018): Large-Scale Visual Speech Recognition, 13. Juli 2018, Cornell University
- Googles KI-Abteilung geht Medizinprojekt an - ZDNet.de. 25. Februar 2016.
- DeepMind soll helfen, Leben zu retten.
- Hal Hodson: Revealed: Google AI has access to huge haul of NHS patient data.
- Laura Donnelly: Controversy as Google given access to NHS patient data. 3. Mai 2016.
- heise online: Großbritannien: Google-Tochter DeepMind darf Millionen Patientendaten auswerten.
- Datenexperten warnen: Elektronische Gesundheitskarte völlig ungeeignet für geplante Funktion - Gesundheit. 4. Mai 2016.
- Why we launched DeepMind Ethics & Society. Abgerufen am 18. Mai 2020.