CRE: Technik, Kultur, Gesellschaft
Der Interview-Podcast mit Tim Pritlove
https://cre.fm


CRE208 Neuronale Netze

Über aktuelle Durchbrüche im Bereich der Künstlichen Intelligenz und deren Auswirkungen

Der künstlichen Intelligenz im Allgemeinen und neuronalen Netzen im besonderen wurde schon immer eine große Zukunft vorausgesagt. Doch erst seit ein paar Jahren ist die Forschung und die Geschwindigkeit der Rechner so weit gediehen, dass wirkliche Durchbrüche zu erzielen waren. Persönliche Assistenten und andere hochkomplexe Analysen von Daten werden jetzt Realität und werden nicht folgenlos bleiben. Der Programmierer und Mathematiker Ulf Schöneberg erläutert, wie neuronale Netze funktionieren und welche Anwendungen künftig vorstellbar sind.

https://cre.fm/cre208-neuronale-netze
Veröffentlicht am: 20. Oktober 2015
Dauer: 2:45:50


Kapitel

  1. Intro 00:00:00.000
  2. Begrüßung 00:01:26.971
  3. Vorstellung 00:02:52.288
  4. Data Science 00:12:55.966
  5. Big Data und Spam 00:18:45.117
  6. Big Data in der Wissenschaft 00:33:32.592
  7. Relationale Datenbanken 00:44:41.697
  8. Google 01:00:37.463
  9. Erste Gehversuche mit neuronale Netzen 01:11:11.114
  10. Durchbruch für neuronale Netze 01:26:17.079
  11. Wie ein neuronales Netz lernt 01:37:33.130
  12. Technikfolgenabschätzung 02:14:22.585
  13. Abschied 02:44:19.797

Transkript

Tim Pritlove
0:01:27
Ulf Schöneberg
0:02:56
Tim Pritlove
0:02:58
Ulf Schöneberg
0:03:12
Tim Pritlove
0:03:14
Ulf Schöneberg
0:03:30
Tim Pritlove
0:03:38
Ulf Schöneberg
0:03:43
Tim Pritlove
0:03:44
Ulf Schöneberg
0:03:47
Tim Pritlove
0:03:48
Ulf Schöneberg
0:03:51
Tim Pritlove
0:04:01
Ulf Schöneberg
0:04:07
Tim Pritlove
0:04:21
Ulf Schöneberg
0:05:03
Tim Pritlove
0:05:05
Ulf Schöneberg
0:05:13
Tim Pritlove
0:05:14
Ulf Schöneberg
0:05:21
Tim Pritlove
0:05:25
Ulf Schöneberg
0:05:37
Tim Pritlove
0:06:00
Ulf Schöneberg
0:06:17
Tim Pritlove
0:06:27
Ulf Schöneberg
0:06:28
Tim Pritlove
0:06:30
Ulf Schöneberg
0:06:34
Tim Pritlove
0:06:58
Ulf Schöneberg
0:07:01
Tim Pritlove
0:07:07
Ulf Schöneberg
0:07:09
Tim Pritlove
0:07:14
Ulf Schöneberg
0:07:21
Tim Pritlove
0:07:29
Ulf Schöneberg
0:07:31
Tim Pritlove
0:07:34
Ulf Schöneberg
0:07:38
Tim Pritlove
0:07:43
Ulf Schöneberg
0:07:44
Tim Pritlove
0:07:48
Ulf Schöneberg
0:07:55
Tim Pritlove
0:08:03
Ulf Schöneberg
0:08:05
Tim Pritlove
0:08:48
Ulf Schöneberg
0:08:51
Tim Pritlove
0:08:58
Ulf Schöneberg
0:09:32
Tim Pritlove
0:10:02
Ulf Schöneberg
0:10:14
Tim Pritlove
0:10:21
Ulf Schöneberg
0:10:39
Tim Pritlove
0:11:13
Ulf Schöneberg
0:11:14
Tim Pritlove
0:11:18
Ulf Schöneberg
0:11:19
Tim Pritlove
0:11:32
Ulf Schöneberg
0:11:37
Tim Pritlove
0:12:04
Ulf Schöneberg
0:12:05
Tim Pritlove
0:12:07
Ulf Schöneberg
0:12:27
Tim Pritlove
0:12:27
Ulf Schöneberg
0:12:37
Tim Pritlove
0:12:46
Ulf Schöneberg
0:12:52
Tim Pritlove
0:13:22
Ulf Schöneberg
0:13:25
Tim Pritlove
0:13:36
Ulf Schöneberg
0:13:39
Tim Pritlove
0:14:47
Ulf Schöneberg
0:15:14
Tim Pritlove
0:15:15
Ulf Schöneberg
0:15:38
Tim Pritlove
0:15:39
Ulf Schöneberg
0:15:58
Tim Pritlove
0:16:00
Ulf Schöneberg
0:16:01
Tim Pritlove
0:16:37
Ulf Schöneberg
0:17:55
Tim Pritlove
0:17:57
Ulf Schöneberg
0:18:34
Tim Pritlove
0:18:35
Ulf Schöneberg
0:19:37
Tim Pritlove
0:20:18
Ulf Schöneberg
0:20:32
Tim Pritlove
0:20:51
Ulf Schöneberg
0:21:20
Tim Pritlove
0:21:23
Ulf Schöneberg
0:21:47
Tim Pritlove
0:21:49
Ulf Schöneberg
0:22:11
Tim Pritlove
0:23:00
Ulf Schöneberg
0:23:02
Tim Pritlove
0:23:08
Ulf Schöneberg
0:23:22
Tim Pritlove
0:23:29
Ulf Schöneberg
0:23:30
Tim Pritlove
0:24:00
Ulf Schöneberg
0:24:04
Tim Pritlove
0:24:50
Ulf Schöneberg
0:24:52
Tim Pritlove
0:25:14
Ulf Schöneberg
0:25:15
Tim Pritlove
0:25:22
Ulf Schöneberg
0:25:34
Tim Pritlove
0:26:18
Ulf Schöneberg
0:26:57

Man könnte vielleicht erstmal einen Schritt vorher rangehen und sagen, was macht man, wie unterscheidet man, äh ob eine Nachricht spam oder nicht, Spam ist, ähm, als Mensch fliegt man da irgendwie mit den Augen rüber und erkennt nach wenigen Hin- und Herschwenken mit den Pupillen, okay das sieht nach Spam aus äh oder eben nicht, aber in diesem Prozess mit dem mit den Augen darüber fahren passiert in unserem Gehirn verhältnismäßig viel. Was man Maschinen relativ schwierig beibringen kann. Man hatte eigentlich keine richtige Handhabe dafür, Ansatz könnte sein Wörter zu zählen äh und eine Liste mit schrecklichen Wörtern zu haben, die eben eher im Spam vorkommen oder eine Worte mit positiven Beispielen, die eher in ähm, In guten Beispielen vorkommen, man hätte vielleicht auch noch eine Liste mit Wörtern, die total irrelevant sind, wie hallo, Komma, äh den, der ist und so weiter, also sogenannte Stopbirds äh. Oder man könnte auf die relativ komplexe Idee kommen äh Wörter als Mehrfach-Touple zu begreifen, also sich so Sequenzen von zwei oder drei Wörtern anzugucken. Andrums nennt man das. Und äh dann diese in die gleichen äh Töpfe zu werfen, gut, schlecht, nicht so gut äh, eben durch die Mail durchzugehen, diese zu zählen und nach einem gewissen Algorithmus zu sagen, okay so und so viel aus dem Bereich, so und so viel aus dem anderen Bereich. Das Ding ist eine Spam oder das ist eben eine positive, mailen ähm was man, machen könnte, wenn man das äh noch ein bisschen elaborierter angeht, äh dass man sagt, der Algorithmus produziert diese ähm packt das in so Vergleichstöpfe, Projiziert. Die ganze Mail oder baut aus diesen ähm einen Vektor zusammen, wo jedes Element des Vektors so ein ist, Und hat dann einen hochdimensionalen Vektorraum. Jeder jede Mail, die man liest, ist Teil von diesem Vektorraum dann. Ist ein Punkt in diesem hochdimensionalen Vektorraum, Und man kann in diesem hochdimensionalen Vektorraum, genau wie auf einem Blatt Papier, äh Kreise ziehen, eben komplexe indimensionale Kugeln, Definieren äh oder Rauminhalte und in diesem Rauminhalt äh ist eher der Spam zu Hause und in dem anderen Rauminhalt ist dann eher der Nichtspam.

Tim Pritlove
0:29:21
Ulf Schöneberg
0:29:24
Tim Pritlove
0:29:29
Ulf Schöneberg
0:29:32
Tim Pritlove
0:29:33
Ulf Schöneberg
0:30:16
Tim Pritlove
0:31:01
Ulf Schöneberg
0:31:10
Tim Pritlove
0:31:17
Ulf Schöneberg
0:31:25
Tim Pritlove
0:31:44
Ulf Schöneberg
0:31:59
Tim Pritlove
0:32:08
Ulf Schöneberg
0:32:15
Tim Pritlove
0:33:01
Ulf Schöneberg
0:34:36
Tim Pritlove
0:34:42
Ulf Schöneberg
0:35:08
Tim Pritlove
0:35:09
Ulf Schöneberg
0:35:30
Tim Pritlove
0:35:59
Ulf Schöneberg
0:36:23
Tim Pritlove
0:36:32
Ulf Schöneberg
0:36:38
Tim Pritlove
0:36:46
Ulf Schöneberg
0:37:08
Tim Pritlove
0:37:10
Ulf Schöneberg
0:37:24
Tim Pritlove
0:37:26
Ulf Schöneberg
0:37:29
Tim Pritlove
0:37:48
Ulf Schöneberg
0:38:18
Tim Pritlove
0:39:05
Ulf Schöneberg
0:39:42
Tim Pritlove
0:40:27
Ulf Schöneberg
0:40:33
Tim Pritlove
0:40:43
Ulf Schöneberg
0:41:43
Tim Pritlove
0:41:48
Ulf Schöneberg
0:42:01
Tim Pritlove
0:42:12
Ulf Schöneberg
0:42:14
Tim Pritlove
0:43:10
Ulf Schöneberg
0:43:12
Tim Pritlove
0:43:33
Ulf Schöneberg
0:43:35
Tim Pritlove
0:44:41

Jetzt ist ja das Speichern von Daten ein Klassiker. Ich weiß noch, als ich das erste Mal in meinem Leben das Wort Datenbank gehört habe, da ähm ging's, glaube ich, um. Adressen abspeichern. War ja so ein Homecomputerzeiten noch eine, eine unglaubliche Herausforderung, aber sozusagen überhaupt dieser Begriff Datenbank, Der sozusagen auch schon so implizit äh impliziert, dass so für deine Daten gibt's einen extra Ort. Ja, also so wie wie dein Geld liegt halt auf der Bank. Gut, der englische Begriff gibt's jetzt eigentlich nicht so sehr. Ja, aus dem Deutschen kann man das irgendwie sehr schön rauslesen, so so ja Daten, das ist halt einfach mal was spezielles. Äh da brauchst du halt jetzt äh äh deinen deinen speziellen Speicherort. Und ja ähm nicht nur, dass die Daten halt alle so für sich erstmal zusammengepfercht werden, sondern als äh Mehrwert. Organisieren wir dir die Daten halt auch gleich, damit eben der Zugriff darauf möglichst effizient ist, also effizient, vor allem natürlich im Bezug auf Geschwindigkeit beziehungsweise, dass man überhaupt äh dann eben auch wie du schon sagst äh in endlicher Zeit. Die Chance hat, an die Informationen heranzukommen, die man ihnen jetzt gerne haben will. Und. In den ja geschichtlich auch grad nicht so ganz Firmen, aber äh, Die große Erfindung des zwanzig Jahrhunderts in dieser Hinsicht war die Relationale Datenbank. Die Idee, dass man eben, Daten in Tabellen führt, die äh in sich gleichförmig sind, davon, mehrere äh auch äh nebeneinanderstellen kann und zueinander in Relation setzen kann. Und diese Relationen dem Datenbanksystem selber auch äh bekannt sind und Zugriffe darauf ermöglicht, ja die dann eben schnell automatisiert ablaufen können und in dem Moment, wo ich neue Daten reintanke, werden eben diese Relationen auch äh immer entsprechend ähm aktualisiert, dass man eben gut drauf zugreifen kann. Und alle waren glücklich und hielten die Hände hoch und sagten mit relationellen Datenbanken gehen wir äh in die Zukunft und erforschen das Universum und alles wird gut.

Ulf Schöneberg
0:47:13
Tim Pritlove
0:47:25
Ulf Schöneberg
0:47:26
Tim Pritlove
0:47:48
Ulf Schöneberg
0:48:11
Tim Pritlove
0:48:54
Ulf Schöneberg
0:49:04

Ja, die lassen dich mit dieser wunderbaren Abfragesprache eben aus der großen Datentonne deine deine Daten, die du haben möchtest, ähm, Filtern sie heraus, ne? Das ist das, was sie schön macht oder was sie schön machen. Ähm, Aber im Grunde, ich nenne es deswegen immer nur Datentonne. Ich äh es ist eine große Tonne und äh, Jedes jedes Datentütchen hat äh unterschiedliche Flex und, mit der relationalen Datenbank äh Abfragesprache stellst du diese Datentütchen neu zusammen und legst sie in eine, dir gefallende Reihe. Mehr ist es nicht. Ich würde jetzt, Ich bin kein kein großer Datenbank-Evangelisator, dass ich betrachte das immer nur als klar, da gibt es äh tausend Sachen, die man, beachten muss, wie Geschwindigkeitsskalierbarkeit äh Replizierbarkeit und ähm im kommerziellen Umfeld will man natürlich auch ähm, Sachen haben, äh wie absolute Transaktionssicherheit und ähnliches und das bieten dir, Die meisten modernen revolutionalen Datenbanken einfach äh von Haus aus. Hm. Das Schlimme an den relationalen Datenbanken ist das, was sie so gut macht. Das sind nämlich die Relationen. Du musst äh in eine um in einer relationalen Datenbankdaten anzulegen, musst du dir vorher eben sehr genau überlegen, was will ich tun, in welchen Topf, wie will ich die Sachen, verknüpfen, das heißt du musst diese sogenannten normalen Formen äh, Durch exerzieren, das heißt nichts anderes als die Tabellenstruktur äh wie eine Tabelle auf die andere zeigt, äh wir überlegen, und da fiel Energie reinbringen und das macht sie am Ende auch ein bisschen sperrig, weil wenn du dir das einmal überlegt hast und dann ändern sich deine Anforderungen an die Datenbank, dann musst du, Diese Definition neu überlegen und auch neu durchführen. Das heißt, du musst durch diese normalen Formen wieder durch und musst Äh die Daten in neue Töpfe legen, umsortieren. Das ist alles sehr aufwendig und äh bisschen ärgerlich, wenn man Anforderungen hat oder wenn man Business Cases hat oder Cases überhaupt äh, Wo man weiß, das ändert sich jetzt öfter mal. Und so sind wir zu den schemafreien Datenbanken gekommen, die heute sehr erfolgreich sind. Die sogenannten No SQL Datenbanken. Mit den ganzen Namen, die da so über die Bühne, Laufen wie Mongo, DB und Radis und Elastik und es gibt 30 verschiedene Couch-DBY.

Tim Pritlove
0:51:42
Ulf Schöneberg
0:52:30
Tim Pritlove
0:53:23
Ulf Schöneberg
0:53:25
Tim Pritlove
0:54:05
Ulf Schöneberg
0:54:09
Tim Pritlove
0:54:17
Ulf Schöneberg
0:54:32
Tim Pritlove
0:54:33
Ulf Schöneberg
0:54:40
Tim Pritlove
0:55:04
Ulf Schöneberg
0:55:18
Tim Pritlove
0:55:37
Ulf Schöneberg
0:55:49
Tim Pritlove
0:55:52
Ulf Schöneberg
0:56:19
Tim Pritlove
0:56:40
Ulf Schöneberg
0:57:04
Tim Pritlove
0:57:20
Ulf Schöneberg
0:57:25
Tim Pritlove
0:57:31
Ulf Schöneberg
0:58:07
Tim Pritlove
0:58:41
Ulf Schöneberg
0:58:44

Wird angeschaut. Ähm also man muss ein Programm laufen lassen, was die Lockdaten äh. Und wenn das immer mehr Webserver werden, immer mehr virtuelle Webserver, dann sind das auch immer mehr Lockdaten, die man kleinschneiden muss und protestieren muss. Und wir hatten damals einen jungen Programmierer, der hat gesagt, Ich habe eine gute Idee. Wir nehmen, wie unsere Webserver war der Apaci. Wir nehmen die äh Apaci-Locks und wir packen die in eine Datenbank rein. Das ist super, dann kann ich äh aus anderen Rechnern verteilt mir jeweils für den jeweiligen virtuellen Server das Stückchen holen aus der Datenbank, was ich haben möchte und dann ähm, Rechne ich darauf die Statistik aus. Und das haben wir, wir haben ihn machen lassen, glaube ich, als Spielwiese. Das war jetzt nicht das Produktionssystem, aber wir haben ihn, Das machen lassen, äh weil wir die Idee, warum nicht? Also ne, was Neues ausprobieren, Und das hat nicht funktioniert, weil es äh weil die Daten, die wir hatten, schon zu Big für äh dieses kleine Datenbanksystem waren zu der Zeit, also der Apaci hat schneller Lockdaten produziert als Majes Duell, die wegspeichern konnte. Das hat äh auf einer vier Prozess oder Sun-Maschine eben, das ging einfach nicht. Ähm da, Hätte man und zu der Zeit hätte man schon drauf kommen sollen, dass man vielleicht äh so was wie Mapre sich einfallen lassen könnte. Ich bin nicht drauf gekommen. Meine Kollegen auch nicht. Äh das haben das mussten doch noch ein paar andere machen, aber, Ähm ich denke, dass man diesen Fall immer wieder übertragen kann. Du wirst. Prozesse, wenn du Prozesse hast, die schneller Daten erzeugen als deine Datenbank, sie wegspeichern kann, dann musst du dir was anderes einfallen lassen. Und dann kommst du auf neue Ideen. Die vielleicht nicht unbedingt eine relationale Datenbank. Oder du treibst den ganzen Ding, du schmeißt deinen ganzen deine ganze Gehirnkapazität darauf, diese relationale Datenbank immer schneller zu machen und zu parallelisieren. Das könnte ein anderer Ansatz sein.

Tim Pritlove
1:00:37

Jetzt Kurvenmaier gefühlt die ganze Zeit immer noch so ein bisschen Ende der neunziger Jahre äh herum. Ähm, und grade dann auch genau zum Ende des Jahrtausends hätte sozusagen kaum besser choreografiert werden können. Tauchte halt auf einmal ein neuer Contender äh auf, nämlich Google, damals noch ein Universitätsprojekt, Was eben diese Problematik des Suchen im Webs einfach mal komplett neu schon erwähnt, alter, War so bis dahin äh ja, Deshalb so bekannt, weil's halt eigentlich die einzige Suchmaschine, also es war nicht technisch wirklich die einzige Suchmaschine, aber es war mit Abstand das ambitionierteste äh Projekt, was zumindest für die damalige Zeit Verhältnismäßig, interessante Ergebnisse liefert. Ich meine, man hatte jetzt auch den Vergleich nicht so äh richtig. Es gab auch verschiedene Suchmaschinen, Experimente äh in Deutschland. Weiß nicht, ob das schon in die Zeit ging, so mit Mieter gehe, nee, das später, aber vorher gab's noch irgendwelche andere Sachen, wie auch immer. Auf jeden Fall. Es zeigte sich, dass dass man einen anderen Ansatz brauchte und was Google ja von vornherein so erfolgreich machte, ist, dass er erst mal das Konzept anders war, dass man nicht, ähm nur, Irgendwelche Begriffe suchte und das rausspuckte, wo dieser Begriff am meisten drin vorkam. Das war so, glaube ich, so ein bisschen der Ansatz von Alter Vissa, sondern dass man quasi die Relevanz, eines Suchergebnisses auch daran äh Bemessen hat, wie die Hypertext-Struktur innerhalb des Webs war, also dass etwas, auf das oft verlinkt wurde, dadurch eben sehr viel mehr Relevanz bekam.

Ulf Schöneberg
1:02:31
Tim Pritlove
1:03:55
Ulf Schöneberg
1:04:01
Tim Pritlove
1:04:14
Ulf Schöneberg
1:04:37
Tim Pritlove
1:05:28
Ulf Schöneberg
1:06:24
Tim Pritlove
1:06:26
Ulf Schöneberg
1:06:59
Tim Pritlove
1:07:09
Ulf Schöneberg
1:07:11
Tim Pritlove
1:07:15
Ulf Schöneberg
1:07:18
Tim Pritlove
1:07:46
Ulf Schöneberg
1:07:47
Tim Pritlove
1:08:00
Ulf Schöneberg
1:08:05
Tim Pritlove
1:08:12
Ulf Schöneberg
1:08:15
Tim Pritlove
1:09:00
Ulf Schöneberg
1:09:04
Tim Pritlove
1:09:12
Ulf Schöneberg
1:09:17
Tim Pritlove
1:09:28
Ulf Schöneberg
1:09:32
Tim Pritlove
1:10:14
Ulf Schöneberg
1:10:21
Tim Pritlove
1:11:05
Ulf Schöneberg
1:11:06
Tim Pritlove
1:11:09
Ulf Schöneberg
1:12:11
Tim Pritlove
1:12:15
Ulf Schöneberg
1:12:26
Tim Pritlove
1:12:27
Ulf Schöneberg
1:12:34
Tim Pritlove
1:12:44
Ulf Schöneberg
1:13:05
Tim Pritlove
1:13:20
Ulf Schöneberg
1:13:23
Tim Pritlove
1:14:51
Ulf Schöneberg
1:14:52

So aus den aus den Achtzigern, ne, so fünfundachtzig, 86 in dem Dreh. Ähm, Man hat die damals die kamen die neuronalen also die neuronalen Netze sind nur ein Aspekt des, aus der ganzen aus dem großen Werkzeugkorb des maschinellen Lernens. Die sind heute sehr, sehr erfolgreich damals 86 waren sie das gar nicht, Da haben sie es gibt ein klassisches Beispiel ähm es gibt den Amnest Datensatz, das sind äh gescannte Zahlen, die, Ich glaube Amerikaner mit Kugelschreiber auf Wahl oder Steuerpapiere geschrieben haben und die Amerikaner haben das gescannt und diesen Datensatz den gibt es schon ewig, DM Ähm, Das ist sozusagen das Hello World, das Maschinenlair und des visuellen Maschinen Learnings, äh diesen zu prozessieren. Die Aufgabe ist, äh diese gescannten Zahlen zu erkennen. Da sind Grauwerte drin, 8undzwanzig mal 28 Grauwerte äh und hinten steht ein Label, das ist eine Null, eine Eins, also das sind null bis neun und davon gibt es glaube ich 60.000 in diesem MS-Datensatz. Und du musst jetzt ein Verfahren trainieren, du musst dem etwas konstruieren und dann ein Verfahren trainieren auf diesem Datensatz. Du teilst den irgendwie in 90 Prozent zum Lernen und zehn Prozent zum Testen und mit 90 Prozent lernst du dein Verfahren an und mit 1 Prozent testest du dann, wie gut es ist. Und das hat man damals schon gemacht mit diesen neuronalen Netzen, zwar nicht mit 60tausend, sondern ich glaube nur mit 1000 und hat festgestellt, das funktioniert hervorragend, Bis zum bis zur ich weiß es nicht mehr, 300 Zahl und dann brechen die Ergebnisse bricht der Ergebnisraum der vorher ganz okay war komplett zusammen und das Netzwerk antwortet nur noch, kompletten Bullshit. Das ist was, was man.

Tim Pritlove
1:16:40
Ulf Schöneberg
1:16:49
Tim Pritlove
1:17:05
Ulf Schöneberg
1:17:20
Tim Pritlove
1:18:13
Ulf Schöneberg
1:18:14
Tim Pritlove
1:18:18
Ulf Schöneberg
1:18:19
Tim Pritlove
1:18:21
Ulf Schöneberg
1:18:22
Tim Pritlove
1:18:24
Ulf Schöneberg
1:18:28
Tim Pritlove
1:18:53
Ulf Schöneberg
1:18:57
Tim Pritlove
1:19:03
Ulf Schöneberg
1:19:14
Tim Pritlove
1:20:29
Ulf Schöneberg
1:20:32
Tim Pritlove
1:21:26
Ulf Schöneberg
1:21:27
Tim Pritlove
1:22:47
Ulf Schöneberg
1:23:04
Tim Pritlove
1:24:01
Ulf Schöneberg
1:24:02
Tim Pritlove
1:25:22
Ulf Schöneberg
1:25:27
Tim Pritlove
1:26:58
Ulf Schöneberg
1:26:59
Tim Pritlove
1:27:01
Ulf Schöneberg
1:27:02
Tim Pritlove
1:27:45
Ulf Schöneberg
1:27:47
Tim Pritlove
1:28:12
Ulf Schöneberg
1:28:15
Tim Pritlove
1:29:23
Ulf Schöneberg
1:30:50
Tim Pritlove
1:32:12
Ulf Schöneberg
1:32:44
Tim Pritlove
1:33:06
Ulf Schöneberg
1:33:10
Tim Pritlove
1:33:41
Ulf Schöneberg
1:33:44
Tim Pritlove
1:34:37
Ulf Schöneberg
1:34:42
Tim Pritlove
1:34:54
Ulf Schöneberg
1:35:18
Tim Pritlove
1:36:11
Ulf Schöneberg
1:36:15

Oh okay. Und das andere ist, dass man man kriegt mit den vorhin zitierten Support-Vektormaschinen die meisten Probleme ganz, ganz wunderbar gelöst. Auch gar nicht viel besser. Die neuronalen Netze sind auch gar nicht so viel besser in absoluten Zahlen, aber du musst ähm, Das nennen wir gerne Feature Engineering. Du musst aus deinen Daten die relevanten Teile raussuchen, die wichtig für die Beurteilung oder für die Beantwortung deiner Frage sind. Wenn du, Ähm wir haben vorhin, Bei den Wörtern, wenn wir jetzt bei den visuellen Geschichten bleiben, ist es äh zum Zahlenerkennen vielleicht absolut ausreichend nur die schwarz-weißen Werte anzugucken und du brauchst die Farbigen gar nicht. Wenn du dir mit Kugelschreiber ausgefüllte Lottoscheine anguckst, für ein anderes Problem ist Farbe vielleicht total wichtig, wenn du irgendwas anderes beurteilen willst, Und ähm wenn du das mit klassischen Maschinenlearning-Verfahren beantworten willst, brauchst du Leute, die in der Domäne zu Hause sind, deiner Problemdomäne und die müssen, Sagen, guck auf diesen Teil des Wertes, der ist wichtig. Ähm und dann kann die Support-Vektormaschine oder irgendein anderes Verfahren. Meistens äh sehr gut eine Antwort geben, wenn das Training ordentlich war, Die neuronalen Netzwerke haben den Vorteil, dass sie diese Features meistens selber lernen, nämlich die unterste Ebene, unteren unteren Ebene der neuronalen Netze lernen die Struktur. Und die oberen abstrakteren Layer der neuronalen Netzwerke beantworten deine Frage, Und das ist toll, weil du baust plötzlich äh niemanden mehr, der deine Features die ganze Zeit scharf anguckt und überlegt. Da steckt viel Brain Power drin, das zu machen, sondern das passiert automatisch. Das ähm, Also um ein Beispiel zu geben, das äh kann man sich ganz wunderbar runterladen bei Google. Das ist äh eine Vorstudie, die sie gemacht haben. Um Texte mit neuronalen Netzen äh bearbeiten zu können. Das heißt World World torektor, World zwei weg. Äh das ist ein, C-Programm glaube ich. Äh dem kannst du die Wikipedia oder Teile der deutschen Wikipedia vorschmeißen und erkennt, Weder die Sprache, noch um was es da geht erkennt nur die Textinformation. Der geht mit so einem, Mit so einem Sliding Window geht ihr über den Text drüber immer fünf, sechs, sieben, acht Wörter gleichzeitig angucken und trainiert mit denen ein neuronales Netzwerk und nach ein paar Stunden oder paar Tagen, Kannst du komplexe Fragen stellen wie äh Berlin verhält sich zu Deutschland, Wie ähm Paris zu und dann kann es dir Frankreich beantworten und das äh ist was relativ Elaboriertes. Das hat es nur aus der Struktur gelernt. Das wusste nicht mal, welche Sprache das ist.

Tim Pritlove
1:39:14
Ulf Schöneberg
1:39:21
Tim Pritlove
1:39:44
Ulf Schöneberg
1:39:57
Tim Pritlove
1:41:22
Ulf Schöneberg
1:41:44
Tim Pritlove
1:41:45
Ulf Schöneberg
1:41:47
Tim Pritlove
1:41:49
Ulf Schöneberg
1:42:12
Tim Pritlove
1:43:36
Ulf Schöneberg
1:43:48
Tim Pritlove
1:44:11
Ulf Schöneberg
1:44:14
Tim Pritlove
1:44:20
Ulf Schöneberg
1:44:25
Tim Pritlove
1:45:16
Ulf Schöneberg
1:45:19
Tim Pritlove
1:45:25
Ulf Schöneberg
1:45:28
Tim Pritlove
1:46:37
Ulf Schöneberg
1:46:46
Tim Pritlove
1:46:47
Ulf Schöneberg
1:46:52
Tim Pritlove
1:46:56
Ulf Schöneberg
1:47:05
Tim Pritlove
1:47:07
Ulf Schöneberg
1:47:31
Tim Pritlove
1:47:59
Ulf Schöneberg
1:49:16
Tim Pritlove
1:49:37
Ulf Schöneberg
1:50:01
Tim Pritlove
1:50:03
Ulf Schöneberg
1:50:11
Tim Pritlove
1:50:12
Ulf Schöneberg
1:50:16
Tim Pritlove
1:50:28
Ulf Schöneberg
1:50:47
Tim Pritlove
1:50:48
Ulf Schöneberg
1:50:51
Tim Pritlove
1:51:01
Ulf Schöneberg
1:51:02
Tim Pritlove
1:51:49
Ulf Schöneberg
1:51:52
Tim Pritlove
1:52:17
Ulf Schöneberg
1:52:25
Tim Pritlove
1:52:32
Ulf Schöneberg
1:52:34
Tim Pritlove
1:53:08
Ulf Schöneberg
1:53:10
Tim Pritlove
1:53:12
Ulf Schöneberg
1:53:17
Tim Pritlove
1:53:25
Ulf Schöneberg
1:53:30
Tim Pritlove
1:53:32
Ulf Schöneberg
1:53:36
Tim Pritlove
1:54:04
Ulf Schöneberg
1:54:10
Tim Pritlove
1:54:12
Ulf Schöneberg
1:54:16
Tim Pritlove
1:54:18
Ulf Schöneberg
1:54:34
Tim Pritlove
1:56:02
Ulf Schöneberg
1:56:07
Tim Pritlove
1:56:58
Ulf Schöneberg
1:57:41
Tim Pritlove
1:57:46
Ulf Schöneberg
1:57:48
Tim Pritlove
1:57:49
Ulf Schöneberg
1:58:29
Tim Pritlove
1:58:46
Ulf Schöneberg
1:58:54
Tim Pritlove
1:59:15
Ulf Schöneberg
1:59:19
Tim Pritlove
1:59:45
Ulf Schöneberg
2:00:13
Tim Pritlove
2:00:39
Ulf Schöneberg
2:00:51
Tim Pritlove
2:00:58
Ulf Schöneberg
2:01:02
Tim Pritlove
2:01:30
Ulf Schöneberg
2:01:32
Tim Pritlove
2:01:47
Ulf Schöneberg
2:02:42
Tim Pritlove
2:02:44
Ulf Schöneberg
2:02:58
Tim Pritlove
2:03:34
Ulf Schöneberg
2:03:37

Eine nominale Phrase, es ist die das ist das der Hauptwortteil und die verbale Phrase ist das äh wie sagt man Teil? Äh also ich, genau das Verb, ne, nominal und äh verbade Phrase. Das ähm also in der Linguistik sind das die die ähm, Teile, die einen Satz ausmachen, ähm die zerfallen dann noch mal in Adjektive, Nomen und so weiter und äh diese Teile, fallen auf bestimmten Ebenen des Netzes automatisch raus. Ich gucke mir einfach drei an, also der unterste Layer ist äh ich kann ihn null oder eins nennen. Da wo die Worte wirklich reinfallen, dann drei Layer weiter höher, sind auf einmal ist auf einmal gelernt worden, was Adjektive und ähm, Nomen sind und wieder eine Ebene drüber, fällt eine komplexere Teil der Grammatik raus. Also man guckt in den verschiedenen Ebenen nach. Versteht jetzt einfach okay, da bildet sich das ab lustigerweise. Also man hat das Problem gespannt, aus der untersten Ebene das wirkliche Wort und der obersten Ebene, wo man noch gesagt hat, echter Satz oder nicht echter Satz. Und dazwischen. Entspannt sich auf den verschiedenen Ebenen verschiedene Teilaspekte der Grammatik dieser jeweiligen Sprache und das ist ziemlich verrückt, Es heißt aber einfach nur äh menschliche Sprache, genügt bestimmten Regeln. Diese Regeln, Formen sich in ihrer Struktur aus und wenn ich ein Netzwerk trainiere äh auf die Struktur einer Sprache und das verändert sich irgendwann nicht mehr, dann hat es offensichtlich die Struktur komplett erfasst und dann kann ich, wenn ich mir bestimmte Ebenen dieses Netzwerks angucke, auch finde ich auch bestimmte Aspekte von meinem von meiner Grammatik wieder heraus. Wenn sie denn stimmt.

Tim Pritlove
2:05:33
Ulf Schöneberg
2:05:37
Tim Pritlove
2:06:22
Ulf Schöneberg
2:06:27
Tim Pritlove
2:06:32
Ulf Schöneberg
2:06:33
Tim Pritlove
2:06:49
Ulf Schöneberg
2:06:57
Tim Pritlove
2:07:18
Ulf Schöneberg
2:07:48
Tim Pritlove
2:07:51
Ulf Schöneberg
2:07:58
Tim Pritlove
2:08:02
Ulf Schöneberg
2:08:12
Tim Pritlove
2:08:19
Ulf Schöneberg
2:08:23
Tim Pritlove
2:08:48
Ulf Schöneberg
2:09:47
Tim Pritlove
2:09:51
Ulf Schöneberg
2:10:33
Tim Pritlove
2:10:35
Ulf Schöneberg
2:10:37

Nee, das hängt nicht an zu denken. Das hat äh das hat wie gesagt nur Strukturinformationen gelernt und das weiß ja nicht mehr, was es da gelernt hat. Das hat es bildet auf eine komplexe Art und Weise die Strukturinformation eines Textes ab. Äh, Und was wir reingegeben haben, ganz am Anfang sind Zahlenvektoren, die diese Zahlenvektoren entsprechend diesen Wortsequenzen, aber äh am Ende habe ich, Einen großen Vektorraum mit lauter Datenpunkten drin. Und in dem kann ich Fragen stellen. Also ich kann sagen. Gib mir alle Worte raus, die die größte Ähnlichkeit zu Plus haben als Wort. Und tatsächlich ist die erste Antwort, die das äh, Netzwerk liefert. Äh ich habe hier aber Positive habe ich gefragt. Das hat alle sehr überrascht und die erste Antwort, die kommt, ist äh non negative. Und da merkt man schon, das ist nichts, was äh nach ähnlichen Worten sucht, sondern es findet tatsächlich die Bedeutung des Non-Negative-Positive bedeutet, Ich habe das äh meinen äh Mathematiker Kollegen mal gezeigt und das ist äh da stellt man dann sofort ganz viele mathematische Fragen und es kommen kluge Antworten, aber, Positive und hat die meisten äh überzeugt, dass das äh was ist. Also man kann nach nach Ähnlichkeit fragen, Und weil man in einem Vektorraum ist, kann man sogar mit diesen Worten bestimmte geometrische Operationen äh man kann äh Vektorverschiebung machen, die dann äh also ne, eine geometrische Operation, die man noch kennt aus der Schule, die dann auf den Wörtern auch etwas macht, was tatsächlich Sinn ergibt.

Tim Pritlove
2:12:15
Ulf Schöneberg
2:12:27
Tim Pritlove
2:12:28
Ulf Schöneberg
2:12:31
Tim Pritlove
2:12:44
Ulf Schöneberg
2:12:45
Tim Pritlove
2:13:07
Ulf Schöneberg
2:13:11
Tim Pritlove
2:13:51
Ulf Schöneberg
2:13:52
Tim Pritlove
2:13:55
Ulf Schöneberg
2:13:56
Tim Pritlove
2:13:57
Ulf Schöneberg
2:13:58
Tim Pritlove
2:14:10
Ulf Schöneberg
2:14:16
Tim Pritlove
2:14:20

Ja ja, genau. Jetzt, Was was ergibt sich äh daraus für uns? Also ähm Google hat sich den Herrn hinten schon mal, Er hat ihn gleich in so einen Glaspalastpalast äh reingestellt und der darf da jetzt sozusagen auf allen Knöpfen drücken, die irgendwie möglich sind. Jetzt wissen wir ja schon, dass Google nicht nur Google, aber, auch und vor allem Google ähm ja nennenswerte Datenmengen, zur Verfügung hat. YouTube war schon ein schönes Beispiel, alle Videos, Fotos äh, ist auch ganz klar, äh Selbes kann man sich natürlich auch mit Facebook äh äh denken. Wenn man diese Datenbestände die heute schon existieren und die äh mittelfristig sich noch weiter abzeichnen. Ich denke, das wird ja tendenziell erstmal nicht weniger werden. Egal wie viele Gegenbewegungen es da gibt. Wir äh knipsen und schreiben und und und schicken Nachrichten Man hätte jetzt sozusagen wirklich den Zugriff auf alle Daten. Noch nicht mal auf ganz richtig alle Daten, aber so also viel der Kommunikation, viel dessen, was öffentlich geteilt wird, Und man setzt jetzt, Beliebige Rechnermengen mit diesen die Algorithmen auf diese Daten an. Meine wenn, Wenn wenn ein System schon, Anfangen kann zu übersetzen und Aussagen zu machen bis hin zu mathematisch vollständig, nachvollziehbaren Aussagen über etwas, wo vorher noch nicht mal ein Wissen darüber existierte. Kann man ja da einfach alles Mögliche herauslesen. Kann man alle Beziehungen zueinander herauslesen, Alle Personen herauslesen und auch irgendwie rauslesen, was alle denken.

Ulf Schöneberg
2:16:20
Tim Pritlove
2:16:30
Ulf Schöneberg
2:16:36
Tim Pritlove
2:17:22
Ulf Schöneberg
2:17:33
Tim Pritlove
2:17:50
Ulf Schöneberg
2:17:53
Tim Pritlove
2:17:57
Ulf Schöneberg
2:18:17
Tim Pritlove
2:19:16
Ulf Schöneberg
2:19:48
Tim Pritlove
2:19:51
Ulf Schöneberg
2:20:40
Tim Pritlove
2:20:50
Ulf Schöneberg
2:21:27
Tim Pritlove
2:21:33
Ulf Schöneberg
2:21:42
Tim Pritlove
2:22:08
Ulf Schöneberg
2:23:14
Tim Pritlove
2:24:18
Ulf Schöneberg
2:24:24
Tim Pritlove
2:24:25
Ulf Schöneberg
2:24:35
Tim Pritlove
2:24:36
Ulf Schöneberg
2:25:18
Tim Pritlove
2:25:23
Ulf Schöneberg
2:25:28
Tim Pritlove
2:25:32
Ulf Schöneberg
2:25:33
Tim Pritlove
2:25:34
Ulf Schöneberg
2:25:54
Tim Pritlove
2:26:10
Ulf Schöneberg
2:26:17
Tim Pritlove
2:27:15
Ulf Schöneberg
2:27:16
Tim Pritlove
2:27:25
Ulf Schöneberg
2:27:30
Tim Pritlove
2:27:31
Ulf Schöneberg
2:27:55
Tim Pritlove
2:28:32
Ulf Schöneberg
2:28:34
Tim Pritlove
2:28:35
Ulf Schöneberg
2:28:46
Tim Pritlove
2:28:47
Ulf Schöneberg
2:29:09
Tim Pritlove
2:29:19
Ulf Schöneberg
2:29:33
Tim Pritlove
2:29:34
Ulf Schöneberg
2:29:35
Tim Pritlove
2:29:44
Ulf Schöneberg
2:29:57
Tim Pritlove
2:29:59
Ulf Schöneberg
2:30:16
Tim Pritlove
2:31:29
Ulf Schöneberg
2:31:30
Tim Pritlove
2:31:55
Ulf Schöneberg
2:32:02
Tim Pritlove
2:32:48
Ulf Schöneberg
2:33:26
Tim Pritlove
2:33:30

Ja, ich meine, das hat wirklich äh eine eine äh ich glaube jedem, der jetzt hier gerade zuhört, summt äh jetzt schon so ein bisschen das Hirn, weil äh die Implikationen sind natürlich, so vielfältig, dass dass wir hier nicht mal auch nur ansatzweise daran kratzen können, glaube ich, ähm worauf es alles eine eine Auswirkung haben kann im Guten wie im Bösen, ne? Wenn ich noch mal das Facebook Beispiel rausgreifen kann, mit dem was wir jetzt sozusagen an an äh was wir hier so erarbeitet und diskutiert haben. Wir haben da einen Ort, der von sich aus schon so wohl definiert und so Metadaten reich ist, dass dass dass man ja noch nicht mal bei null anfangen muss. Wo sozusagen schon so unglaublich viel Struktur da ist und sagen wir mal auch für Für Menschen und natürlich allen voran den Betreibern, aber nicht nur den äh sozusagen klar ist, was das alles bedeutet. Aber eben unfassbare Text, Bild, Videomengen, die in einem unmittelbaren Zusammenhang stehen und die sich im Prinzip mit so einem neuralen Netzwerk, wunderbar äh bearbeiten lassen und, wie man nur vermuten kann, vermutlich auch bearbeitet werden. Da das eben die Basis ist für eine Bildersuche, für eine Textsuche, für eine Relevanzrechnung, um nur eine Anzeige anzuzeigen, aber die natürlich als Nebenprodukt, Auch noch ganz andere äh Ableitungen ermöglicht, weil man ja eigentlich alles versteht. Also man versteht den, Also lenke ein, wenn ich jetzt ein bisschen übers Ziel hinausschieße, aber im Prinzip wird ja hier auch ein Verständnis des Diskurses. Wer redet mit wem worüber? Und warum? Scheint mir jetzt nicht so ein unerreichbares Ziel zu sein, wenn man's darauf auslegen würde.

Ulf Schöneberg
2:35:20
Tim Pritlove
2:35:59
Ulf Schöneberg
2:36:01
Tim Pritlove
2:36:34
Ulf Schöneberg
2:36:35
Tim Pritlove
2:36:36
Ulf Schöneberg
2:36:38
Tim Pritlove
2:36:42
Ulf Schöneberg
2:36:53
Tim Pritlove
2:37:10
Ulf Schöneberg
2:37:14
Tim Pritlove
2:37:16
Ulf Schöneberg
2:37:32

Also ich glaube, es ist viel besser verstanden. Ähm es macht auch nicht mehr so, es hat nicht mehr diesen diesen Moment. Es gibt diesen Moment nicht mehr, dass es irakische Antworten gibt, was man nicht haben möchte, wenn man sich mit Maschinen unterhält. Äh das ist relativ gut verstanden. Hm wo das jetzt überall hinführt und was man noch alles drauf werfen kann, da stehen wir tatsächlich am Anfang. Also, Du kannst dir so eine Google-Plus-Maschine Learning-Gruppe nehmen und äh da jeden Tag drauf gucken und da ist jeden Tag wirklich eine komplett neue Idee drin. Das ist nicht so, dass man denkt, ach komm jetzt hat er es schon letzte Woche gesagt und das kennen wir schon vom letzten Jahr, sondern Leute werfen, Sagen, wir brauchen wir wollen ein neuronales Netzwerk bauen, um äh einen Schach Computer zu bauen. Ist jetzt nichts, was so ganz doll ist, aber Schach ist äh ist eine alte Anwendung. Ähm, Aus dem Computer. Es ist unglaublich viel äh Rechenpower und Menschenpower in diese Schachprogrammierung reingeflossen, so man denke an IBM Deep Blue, ne? Irgendwelche Jungs haben, In den letzten Monaten ein ganz einfaches Schachprogramm genommen mit einer freien mit einer freien Zuge. Ist nicht viel, nicht viel äh Schachwissen drin, wirklich nicht. Und haben dann ein Deep-Learning-Netzwerk dran äh geknüppert und haben als Trainingsset alle online zur Verfügung stehenden Schach äh, Partien drauf angewendet und tatsächlich äh nach wenigen Monaten Training spielt das Ding auf Großmeisterniveau jetzt. Das ist, das ist was, ne? Ein Großmeister, der fällt jetzt nicht einfach so aus irgendeinem Hi.

Tim Pritlove
2:39:10
Ulf Schöneberg
2:39:51
Tim Pritlove
2:39:54
Ulf Schöneberg
2:39:55
Tim Pritlove
2:39:57
Ulf Schöneberg
2:39:58
Tim Pritlove
2:40:01
Ulf Schöneberg
2:40:09
Tim Pritlove
2:40:40
Ulf Schöneberg
2:40:48
Tim Pritlove
2:40:56
Ulf Schöneberg
2:41:48
Tim Pritlove
2:41:52
Ulf Schöneberg
2:42:05
Tim Pritlove
2:42:48
Ulf Schöneberg
2:42:58
Tim Pritlove
2:43:25
Ulf Schöneberg
2:43:42
Tim Pritlove
2:43:56
Ulf Schöneberg
2:44:23
Tim Pritlove
2:44:29
Ulf Schöneberg
2:44:43
Tim Pritlove
2:44:46