Vorwort

12/2017

Zeiten großen technologischen Wandels sind Zeiten großer Verunsicherung. Dies gilt auch für die Digitalisierung. Wir Menschen fürchten uns vor Massenarbeitslosigkeit und hyperintelligenten Maschinen, die unser Leben bestimmen. Technologischer Wandel bringt aber auch enorme Möglichkeiten und Chancen, die von der Angst vor Veränderung verdeckt bleiben.

In den vergangenen 250 Jahren kam es mehrmals zu grundlegenden Zäsuren, die durch technologische Entwicklungen angestoßen wurden. Bahnbrechende oder auch „disruptive“ technologische Umbrüche sind also kein neues Phänomen.

Vorstellungen über eine ungewisse Zukunft provozieren seit jeher Schreckensszenarien. Bereits 1964 proklamierte der deutsche „Spiegel“ auf der Titelseite, dass uns die Arbeit ausgehen werde. Auch 1978 prophezeite dasselbe Magazin, dass künftig nicht mehr Menschen, sondern Roboter die Arbeit erledigen werden. Das war auch nicht ganz falsch, die Automatisierung schritt munter voran, viele Jobs gibt es heute nicht mehr. Und dennoch waren noch nie in der Geschichte mehr Menschen beschäftigt als heute.

Auch derzeit sind in der öffentlichen Wahrnehmung wieder Bilder einer vollautomatisierten Zukunft präsent, in welcher der Mensch von hyperintelligenten Robotern und Algorithmen an den Rand gedrängt wird.

Spiegelcover Abb. 1: Der Spiegel prophezeite bereits 1964, 1978 und auch 2016 in seinen Coverstorys, dass künftig Roboter unsere Arbeit erledigen werden.

Insbesondere die Sorge um den Erhalt von (menschlicher) Arbeit und den daran geknüpften Wohlfahrtsstaat beschäftigt die gesellschaftliche Debatte. Wie wenig diese Wahrnehmung mit den tatsächlich ablaufenden Veränderungen zu tun hat, sieht man beispielsweise in den USA: Seit 1850 sind noch nie so wenige alte Berufe durch neue ersetzt worden wie in den letzten 15 Jahren.

Oftmals ist zudem von „Maschinen“ die Rede, wenn es um unsere Konkurrenzfähigkeit auf dem Arbeitsmarkt geht. Es wird über „Maschinensteuer“ gefachsimpelt und die „Herrschaft der Maschinen“ prophezeit. Ebenso prominent ist in der öffentlichen Debatte das Bild des Roboters. Je nach Stimmungslage müssen wir gegen ihn wettlaufen oder mit ihm zu „tanzen“ lernen. Auch wenn „der Roboter“ oder „die Maschine“ medienwirksam zum Einsatz kommen, die wirklichen Akteure des digitalen Zeitalters sind weitaus weniger greifbar.

Die bahnbrechenden Entwicklungen der mobilen Robotik können nicht darüber hinwegtäuschen, dass die Grundlage für den heutigen technologischen Wandel nicht im Einsatz von Robotern liegt, sondern in der Nutzung immer schneller werdender Rechner, die auf immer größer werdende Datenmengen zugreifen. Und genau darum geht es in der digitalisierten Welt von morgen: nicht um Roboter und Maschinen, sondern um künstliche Intelligenz, die Massendaten verarbeitet.

Auch wenn diese Begriffe nicht einfach zu (be)greifen und die Folgen der digitalen Revolution aus jetziger Sicht nur schwer einzuschätzen sind, laufen wir Menschen nicht in eine Nebelwand. In dieser Arbeit liefern wir einen Überblick darüber, was bereits zu sehen ist. Das ist so etwas wie der Startschuss. In den folgenden Ausgaben dieser Reihe werden wir Ihnen zeigen, wie die neuen Technologien unser Leben konkret beeinflussen werden, etwa in der Arbeit, der Bildung oder der öffentlichen Verwaltung.

Digitalisierung – was genau ist das?

Wie können Computer sehen und verstehen, was wir sagen? Warum können Algorithmen besser Schach spielen als wir und bald schon unsere Autos fahren? Und ist das bedrohlich?

In seiner ursprünglichen Bedeutung bezieht sich der Begriff Digitalisierung auf die Übertragung realer Objekte ins Digitale. Analoge Informationen (Bilder, Texte, Töne etc.) werden in ein digitales Format gebracht, ähnlich wie die Seiten eines Buches mit einem Scanner in eine PDF-Datei umgewandelt werden. Technisch geschieht das über die Ziffern (engl.: digits) 0 und 1.
Es geht aber längst nicht mehr nur um die Darstellung in einem digitalen Format, vielmehr erlauben digitale Technologien vollkommen neue Formen der Aufzeichnung, der Vervielfältigung und der Verarbeitung von Informationen. Mittlerweile verstehen Navigationsgeräte menschliche Stimmen, das neueste iPhone erkennt das Gesicht seines Besitzers, Autos fahren ohne Hilfe des Menschen durch die Gegend und Google übersetzt jeden Text in verschiedene Sprachen.

Die Digitalisierung lebt von Daten. Eine täglich wachsende Zahl an Sensoren sammelt unentwegt Daten. Informationen aus Flugzeugtriebwerken, Wasserstaudämmen oder dem öffentlichen Nahverkehr werden gesammelt, um deren Effizienz und Sicherheit zu erhöhen. Neben staatlichen Institutionen und Unternehmen werden aber zunehmend auch Privatpersonen zur Quelle von Datenströmen, die bei der Nutzung mobiler Endgeräte wie Smartphones entstehen. Durch die rasante Steigerung der Rechenleistung von Computern sind die Kosten für Sensoren und Prozessoren stark gesunken und die Geschwindigkeit der Verarbeitung hat sich rapide beschleunigt. Und die Erfindung des Internets hat einen immer schneller werdenden weltweiten Austausch dieser Daten ermöglicht.

Tabelle Abb. 2: Je nach Zählweise betreten wir mit der Digitalisierung die sechste technologische Revolution der jüngeren Menschheitsgeschichte (Perez, 2009).

Mittlerweile werden Datenmengen enormen Ausmaßes aufgezeichnet und in Echtzeit ausgewertet. Dies wiederum ermöglicht es Algorithmen, Daten von Nutzern und anderen Maschinen mit vergangenen Ereignissen in Beziehung zu setzen und Vorhersagen über zukünftige Verhaltensmuster zu treffen. Dieser Prozess ist der Motor der Digitalisierung.

Was ist ein Algorithmus?
Abb. 3: Ein Algorithmus ist eine einfache Handlungsanweisung - viele Algorithmen können zusammen komplexe Systeme entstehen lassen.

Algorithmen sind klare Handlungsanweisungen zur Lösung eines Problems. Auch unser menschliches Gehirn arbeitet mit Algorithmen. Stellen Sie sich vor, Sie sollen in einer Reihe von Bildern das Foto einer Katze finden. Dieser Ablauf lässt sich als Algorithmus darstellen (siehe Abb. 3). Auch in Computerprogrammen folgen Algorithmen einem festgelegten Muster bei der Lösung einer Aufgabe. Die Kombination vieler verschiedener Einzel-Algorithmen hingegen erlaubt es Computerprogrammen, auch komplexe Probleme in kurzer Zeit zu lösen.

Was das Schachbrett mit der Digitalisierung zu tun hat

Die Leistungsfähigkeit von Computern wächst und wächst seit mehr als 100 Jahren. Deren Rechenleistung verdoppelt sich alle zwei Jahre. Dieses exponentielle Wachstum ist die Voraussetzung für digitale Technologien, die sich mit immer schnellerer Geschwindigkeit ausbreiten.

Als Sissa ibn Dahir um 600 n. Chr. das Schachspiel erfunden hatte, löste er damit bei seinem König, dem Kaiser des Gupta-Imperiums (im heutigen Indien) große Begeisterung aus. Der Imperator liebte das Spiel und wollte von dessen Erfinder wissen, wie er ihn denn für seinen Erfindergeist würdig entlohnen könnte. Nach kurzem Nachdenken erbat Sissa ibn Dahir nichts außer Weizen für seine Familie. Er legte ein Weizenkorn auf das erste Feld seines Schachbrettes und bat seinen Herrscher, die Menge an Körnern für ihn mit jedem weiteren Feld zu verdoppeln. Der Kaiser war verwundert über die Bescheidenheit seines Untertanen, um nur wenig später von seinem Hofmeister erfahren zu müssen, dass die Menge an Weizen, die sich auf dem 64. Schachfeld befinden müsste, die Ressourcen des Kaiserreiches bei Weitem übersteigen würde. Sie wäre sogar höher als die weltweite Weizenproduktion der heutigen Zeit.

Die Legende vom Weizenkorn und dem Schachbrett ist eine geläufige Analogie für die exponentielle Entwicklung der Computertechnik und steht vielleicht sinnbildhaft für unseren technologischen Fortschritt als Ganzes. Einer der Pioniere der Halbleiterindustrie und Mitbegründer der Firma Intel, Gordon Moore, formulierte im Jahr 1965 die gewagte Prognose, dass sich die Rechenleistung von Computern alle zwei Jahre verdoppeln werde. Dieses Moore’sche Gesetz sollte nur knapp zehn Jahre gelten, tatsächlich hält sich die Realität seit über 40 Jahren an Moores Vorhersage. Es handelt sich dabei aber um kein Naturgesetz, wie wir das aus der Physik kennen, das exponentielle Wachstum kann in naher Zukunft auch zu einem Stillstand kommen.

Schachbrett
Weizenkörner Abb. 4: Was Weizenkörner mit exponentiellen Wachstum zu tun haben, zeigt die Geschichte über die Erfindung des Schachspiels.

Namhafte Experten sind der Auffassung, dass unsere Gesellschaft gerade erst dabei ist, die zweite Hälfte des Schachbrettes zu betreten. Und damit eine neue Welt, in der die Größenmaßstäbe von Rechen- und Speicherkapazität immer schwerer vorstellbar und genaue Vorhersagen über die Folgen technologischer Entwicklung immer schwieriger zu treffen sind. Der US-Forscher Ray Kurzweil versucht es trotzdem. Seinen Berechnungen nach liegt die Rechenleistung des Gehirns bei 1016 calculations per second (cps). Diese Rechenleistung wird man nach seinen Schätzungen um 2025 zum Preis von 1.000 US-Dollar erwerben können. Mit anderen Worten: Der „Marktpreis“ der Rechenleistung eines menschlichen Gehirns wird in weniger als zehn Jahren bei 1.000 US-Dollar liegen.

1 Gehirn = 1000 Dollar

Ein Blick zurück zeigt, wie sehr sich die Ausbreitung moderner Technologien bereits beschleunigt hat. So dauerte es über 30 Jahre, bis die Dampfmaschine nach ihrer Entwicklung auch in Österreich eingesetzt wurde. Dennoch gehörte Österreich damit zu den technologischen Vorreitern, denn es brauchte weitere 88 Jahre, bis diese Erfindung weltweit Verwendung fand. In Sachen Internet lag der Adaptionsvorsprung Österreichs schon nur mehr bei sieben Jahren. Der Standortvorteil Österreichs gegenüber anderen Ländern wird stetig kleiner, und Länder können heute schnell durch die Einführung neuer Technologien zu internationalen Vorreitern werden, wie das Beispiel von Estland zeigt. Das wiederum bedeutet: Die Karten werden ständig neu gemischt.

Abb. 4: Vom Analogen ins Digitale – Wörter können in eine Kombination von Nullen und Einsen umgewandelt werden
Nutzen Sie unseren Text-Binär-Umwandler und sehen Sie mit der Logik eines Computers, wie Wörter mit 1 und 0 dargestellt werden.

Weltklasse-Bildung für alle

Im Jahr 2011 entschied sich Professor Sebastian Thrun, seinen Kurs „Einführung in die künstliche Intelligenz“ an der Stanford University erstmals weltweit anzubieten. Nicht nur die im Hörsaal sitzenden Studenten der US-Eliteuniversität sollten seine Vorlesung besuchen können, sondern auch Studenten in aller Welt. Das Interesse war enorm: Rund 160.000 Studenten aus aller Herren Länder meldeten sich zur Vorlesung an, 23.000 von ihnen legten auch alle Prüfungen erfolgreich ab. Das Erstaunliche dabei: Der beste Stanford-Student landete mit seinen Prüfungsergebnissen auf Platz 413. Das wiederum bedeutet: Die besten 412 Absolventen waren nicht aus Stanford, darunter die damals elfjährige Khadija Niazi aus Pakistan.

Aufgrund dieser Erfahrungen gab Thrun seine Professur in Stanford auf und gründete die Online-Universität Udacity, die inzwischen Kurse in verschiedensten Fächern anbietet und in 119 Ländern mehr als drei Millionen Teilnehmer hat.

Das wiederum bedeutet: Hervorragende Bildung wird in Zukunft einer breiten Masse von Menschen in aller Welt zu minimalen Kosten offenstehen.

In sogenannten Massive Open Online Courses (MOOCs) können Kursteilnehmer weltweit Lerninhalte erkunden und Prüfungen ablegen. Möglich machen das die rasant wachsenden Kapazitäten bei der Verarbeitung von Daten, sogenannte Big Data. Sie ermöglichen die globale Verbreitung von Bildungsinhalten über das Internet.

Was ist Big Data?

Stark anwachsende Datenmengen haben zur Entstehung eines Begriffes geführt, der sinnbildhaft für den digitalen Wandel wurde: Big Data. Als Sammelbegriff bezieht sich der Terminus auf Datenmengen, die sich durch drei Charakteristika (the three V’s) auszeichnen. Es handelt sich um Daten großer Menge (Volume), die mit hoher Geschwindigkeit (Velocity) generiert werden und aus unterschiedlichen Formaten (Variety) bestehen. Die uneingeschränkte und nahezu kostenlose Verfügbarkeit von Daten und Informationen bildet den Grundstock (Building Block) für viele Innovationen im digitalen Zeitalter. Auch die Entwicklung „intelligenter“ Algorithmen, die im Folgenden besprochen wird, basiert im Wesentlichen auf der stetigen Ausweitung von Big Data.

Beispiele wie das Online-Bildungsportal von Professor Thrun zeigen, dass das Internet zum Datenhighway des digitalen Zeitalters geworden ist. 2016 wurden hier mehr Daten transportiert, als jemals zuvor analog erstellt wurden. Die Encyclopaedia Britannica enthält Informationen in der Größenordnung von einem Gigabyte. Wissenschaftler schätzen den gesamten Informationsgehalt aller jemals geschriebenen Bücher weltweit auf das Fünfhunderttausendfache. Doch auch diese schwindelerregend große Menge an Daten wurde 2016 vom Datenvolumen des Internets um das Zweimillionenfache übertroffen.

Dr. Algorithmus empfängt Sie jetzt!

Zum Tagesgeschäft von Ärzten gehört es, Diagnosen zu erstellen. Dabei beobachtet der Mediziner die Symptome des Patienten und greift gedanklich auf sein erlerntes Wissen zurück. Diese Form des Vergleichens von vergangenen mit gegenwärtigen Mustern ist eine große Stärke des menschlichen Gehirns. Doch gerade in dieser besonderen Fähigkeit erhalten Mediziner verstärkt Unterstützung vonseiten der „künstlichen Intelligenz“, wie der Superalgorithmus „Watson“ von IBM.

Im Gegensatz zu Ärzten aus Fleisch und Blut kann Watson in Sekundenschnelle auf Millionen von vergangenen Krankheitsbildern und deren Diagnosen zugreifen. Watson ist sogar in der Lage, handgeschriebene Dokumente oder diktierte Aufzeichnungen auszuwerten. Natürlich auch Bildinformationen aus medizinischen Aufnahmen. Seine Diagnosetechniken, die auf automatischer Datenauswertung beruhen, übertreffen schon jetzt die Genauigkeit von Fachmedizinern.

Watson wird mit dem Krankheitsbild eines Patienten konfrontiert. Er analysiert dieses nach Mustern, um sie mit seiner Datenbank abzugleichen. Dank der Vielzahl von Informationen, die das Wissen menschlicher Ärzte weit übersteigt, kann er eine Diagnose erstellen und eine Behandlungsmethode vorschlagen. Im Memorial Sloan Kettering Cancer Center in New York wird Watson seit einigen Jahren mit echten und erdachten Patientendaten trainiert. Watson wird mit jeder Trainingsrunde besser in seinen Befunden.

In absehbarer Zukunft werden viele Ärzte wie im Memorial Sloan Kettering Cancer Center in New York Hand in Hand mit Algorithmen wie Watson arbeiten. Dieser Schritt wird nicht nur die Medizin, sondern auch das Berufsfeld des Arztes nachhaltig verändern. Dieser wird in Zukunft wahrscheinlich über weniger Fachwissen verfügen müssen und sich mehr um den direkten menschlichen Kontakt kümmern können.

Doch auch außerhalb des Krankenhauses und der Arztpraxis verändern digitale Technologien das Gesundheitssystem. Wegen der immer weiter fallenden Preise werden vermehrt Sensoren in der Kleidung eingesetzt, die mit dem Smartphone gekoppelt sind und die relevante Daten von Patienten mit chronischen Erkrankungen wie Diabetes oder Asthma permanent aufzeichnen und auswerten. Das ermöglicht eine höchst individuelle und effektive Behandlung für jeden Patienten.

Darüberhinaus können aus vergangenen Patientendaten auch Vorhersagen über den weiteren Krankheitsverlauf getroffen werden.

Was ist künstliche Intelligenz?

Künstliche Intelligenz (KI), aus dem englischen „artificial intelligence“, oft auch mit AI abgekürzt, ist ein Oberbegriff für lernfähige Algorithmen. Es ist der Versuch, menschenähnliche Intelligenz künstlich nachzubilden. Immer häufiger schaffen es intelligente Algorithmen sogar, die Genauigkeit und Schnelligkeit des menschlichen Gehirns bei der Lösung einer Problemstellung zu übertreffen. Beispiele dafür sind der Schachcomputer Deep Blue, der im Jahr 1996 den amtierenden Schachweltmeister Garri Kasparow schlagen konnte, oder der IBM-Computer Watson, dem es 2011 gelang, beim Ratespiel „Jeopardy!" alle menschlichen Rekordhalter bei Weitem zu übertreffen. Heute können Algorithmen auch Krebszellen erkennen, die für das menschliche Auge unsichtbar bleiben. Auch wenn uns diese Leistungen beeindrucken, so kann künstliche Intelligenz nicht einfach mit menschlicher gleichgesetzt werden. Sie übertrifft den Menschen mitunter bei der Lösung bestimmter, genau definierter Probleme. Jedoch ist sie nicht in der Lage, wie Menschen zu lernen, zu planen, logisch zu denken oder in natürlicher Sprache zu kommunizieren.

Schach, Finanzmathematik oder Übersetzungen sind überraschend einfach für AI geworden, doch noch haben Computer große Probleme, das Wahrnehmungs- und Abstraktionsvermögen eines Vierjährigen zu imitieren. Der Computerwissenschaftler Donald Knuth hat es einmal treffend formuliert: „AI hat uns in nahezu allem geschlagen, was Denken erfordert, doch versagt bei vielen Aufgaben, die wir erledigen, ohne darüber nachzudenken.“

Heikel ist allerdings der Umgang mit persönlichen Informationen, im Speziellen über unsere Gesundheit und unseren Lebenswandel. Wie sicher sind diese Daten? Nicht zu verhindern ist, dass sie missbräuchlich verwendet werden können. Aber wie ist dieser Missbrauch einzuschränken bzw. wie sieht es mit Sanktionen aus? Weltweit beschäftigen sich Datenwissenschaftler mit diesen Fragen und haben auch schon erste Antworten gefunden.

Das Klassenzimmer „steht kopf“

Das Beispiel weltweit zugänglicher Vorlesungen an US-Eliteuniversitäten zeigt, wie die Digitalisierung unser Leben vereinfacht. Hochwertige Bildung wird für eine steigende Zahl von Menschen zu niedrigsten Kosten in aller Welt verfügbar sein. Gleichzeitig stellt diese Veränderung den Hörsaal und das Klassenzimmer „auf den Kopf“. Konnten in der Vergangenheit Schüler und Studenten von Lehrern und Professoren lernen, liefert heute das Verhalten von Schülern und Studenten wichtige Rückschlüsse, wenn sie von einem Algorithmus durch die Hausübungen geführt oder auf eine Schularbeit vorbereitet werden. Beim Abrufen, Wiederholen und Wiedergeben von Lerninhalten fallen unzählige Informationen darüber an, wie junge Menschen lernen: welche Bereiche oft wiederholt werden müssen, ob sie besser lernen, wenn die Information visuell oder akustisch geliefert wird.

Diese Informationen können verwendet werden, um individuell auf die Stärken und Schwächen von Schülern einzugehen. Das New Yorker Schulsystem „School of One“ macht sich diesen Ansatz zunutze. In den sechs teilnehmenden Schulen werden im Mathematikunterricht die Lerninhalte an Computerterminals individuell vermittelt. Jeder Schüler erhält dort täglich eine Liste an Aufgaben, die auf der Basis bisheriger Lernerfolge von einem Algorithmus ausgearbeitet werden. Machine Learning erlaubt es, dass Aufgaben, die Probleme bereiten, wiederholt oder in einfacherer Form aufbereitet werden. Die Schüler werden in unterschiedlichen Geschwindigkeiten von einem Algorithmus „unterrichtet“.

Im Jahr vor der Einführung der School of One lag die Leistung der Sechstklässler etwa ein Prozent unter dem Durchschnitt vergleichbarer Einrichtungen in New York City. Zwei Jahre nach der Einführung des neuen Systems wurden dieselben Schüler wieder getestet. Sie waren um elf Prozent besser als der Durchschnitt.

Jahre Technik Abb. 5: Wie viele Jahre brauchte es, bis 50 Millionen Menschen die jeweilige Technologie zu nutzen begannen? Eine Spiele-App meisterte es sogar in Tagen.
Was ist Machine Learning?

Machine Learning bezeichnet die Fähigkeit von Algorithmen, sich anhand ihrer bisherigen Leistungen zu verbessern, also zu lernen. Wie lernt nun ein Algorithmus? Indem er erst selbst Resultate schätzt und dann mit den tatsächlichen Ergebnissen vergleicht. In einer nächsten Runde verändert der Algorithmus einen kleinen Bestandteil seiner Schätzung und überprüft erneut deren Genauigkeit. Über mehrere, oft tausende Durchläufe kann der Algorithmus so „lernen“, seine Verfahren zu verbessern.

Abb. 6: Algorithmen lernen, indem sie ihre Schätzungen mit der Realität vergleichen.

Nehmen wir an, ein Algorithmus soll schätzen, ob es sich bei einem unbekannten Tier um eine Katze oder einen Hund handelt. Aus einer bestehenden Datenbank weiß der Algorithmus, welche Eigenschaften Hunden und Katzen zuzuordnen sind (Fell, Nahrung, Verhalten). Findet der Algorithmus bestimmte Eigenschaften in seinem Datensatz wieder, so kann er daraus schließen, um welches Tier es sich handelt.

OTTO, hol schon mal den Wagen!

In den USA machen Lkw 5,6 Prozent des Straßenverkehrs aus, sind aber gleichzeitig für 9,5 Prozent aller tödlichen Verkehrsunfälle verantwortlich. Dies will die Firma OTTO (Ottomotto), Tochter des Taxi-Service Uber, ändern. In einigen US-Bundesstaaten testet OTTO seit 2016 erfolgreich selbstfahrende „Big Rigs" (Sattelschlepper). Wie viele technologische Innovationen gehen auch selbstfahrende Fahrzeuge auf das Militär zurück. Das Pentagon testet seit vielen Jahren in der Wüste von Nevada autonom fahrende Fahrzeuge. OTTOs Gründer, Anthony Levandowski, war im Jahr 2005 bei den erfolgreichsten Teams der Tests dabei. Die Gefahrenstatistik des Lkw-Verkehrs sowie hohe Anschaffungskosten könnten übrigens dazu führen, dass in den USA selbstfahrende 15-Tonner noch vor autonomen Pkw die Straßen erobern werden.

Bereits jetzt erkennen Algorithmen über Sensoren in Echtzeit andere Verkehrsteilnehmer, Fahrbahnlinien oder Straßenschilder. In einigen Bereichen der Bilderkennung machen sogenannte Deep-Learning-Algorithmen bereits weniger Fehler als der Mensch. Der Transport wird sicherer, günstiger und umweltschonender.

Was ist Deep Learning?

Eine bedeutende Weiterentwicklung der Verknüpfung verschiedener Algorithmen ist der Versuch, das menschliche Gehirn in seiner Funktionsweise zu imitieren. Netzwerke von Algorithmen sind den Verknüpfungen von Neuronen im menschlichen Gehirn nachempfunden. Diese Technologie findet beispielsweise bei der Bilderkennung Anwendung. Die Netzwerke sind wie in unseren „grauen Zellen“ in Schichten angeordnet und verarbeiten nacheinander Informationen. Bei einer Vielzahl von Schichten spricht man von Deep Networks oder auch Deep Learning.

Abb. 7: Deep Learning erkennt einzelne Elemente eines Bildes und kann daraus auf dessen Inhalt schließen.

Bei der Betrachtung eines Bildes kann ein Deep-Learning-Netzwerk unterscheiden, ob dort ein Hund oder eine Katze zu sehen ist. Durch verschiedene Filter werden einzelne Bildausschnitte vereinfacht. Eine weitere Schicht von Algorithmen erkennt in diesen vereinfachten Informationen Muster. Einige dieser Muster tauchen immer wieder in Bildern mit bestimmten Inhalten (wie Katzen) auf. Wenn viele dieser Muster in einem Bild enthalten sind, kann der Algorithmus daraus schließen, dass dort eine Katze und kein Hund abgebildet sein muss.

Schuldig im Sinne des Algorithmus!

Auf das kanadische Computerprogramm ROSS verlassen sich bereits viele Anwaltskanzleien. ROSS, das ebenfalls auf dem IBM-Algorithmus Watson basiert, kann Tausende juristische Texte pro Minute analysieren, zusammenfassen und Anwälte selbst bei der Lösung komplexer Fälle unterstützen. Der „digitale Anwalt“ bedient sich der künstlichen Sprach- und Textverarbeitung, des sogenannten Natural Language Processing. Neben der Anwendung in Anwaltskanzleien wird ROSS in absehbarer Zukunft wohl auch von individuellen Klienten konsultiert werden, die sich heute keine umfassende rechtliche Beratung leisten können. Das wiederum hat zur Folge, dass der Rechtsbeistand für alle Bürger zu minimalen Kosten möglich sein wird.

Was ist Natural Language Processing?

Das Erkennen, Verarbeiten und Verwenden menschlicher Sprache durch Algorithmen bezeichnet man als Natural Language Processing, kurz NLP. Mit Hilfe von Programmen werden bereits große Textmengen im juristischen Bereich zusammengefasst (Automatic Summarization). Auf dem deutschsprachigen Markt bedienen sich einige Online-Portale bereits erfolgreich ähnlicher Algorithmen. Passagiere, deren Flüge verspätet sind oder ausfallen, können über Seiten wie flightright.de oder fairplane.at automatisierten Rechtsbeistand suchen. Noch anspruchsvoller als das Zusammenfassen von Texten ist das Erkennen von subjektiven Inhalten (Sentiment Analysis). Emotionen, Meinungen oder die Einschätzungen in Texten sind derzeit noch eine besondere technische Herausforderung. (89 Wörter)

Beispiel einer automatischen Zusammenfassung des vorhergehenden Absatzes anhand der Luhn-Methode:

Auf dem deutschsprachigen Markt bedienen sich einige Online-Portale bereits erfolgreich ähnlicher Algorithmen. Noch anspruchsvoller als das Zusammenfassen von Texten ist das Erkennen von subjektiven Inhalten (Sentiment Analysis). Emotionen, Meinungen oder die Einschätzungen in Texten sind derzeit noch eine besondere technische Herausforderung. (41 Wörter)

Wie man anhand dieses Beispiels sieht, konnten mehr als die Hälfte der Worte eingespart werden, ohne dass die Kernaussage verloren geht. Neben der Luhn-Methode sind auch die Edmundson-, LSA-, Text-Rank-, Lex-Rank-, Sum-Basic- und die KL-Methode geläufig.

Die Erkennung, Verarbeitung und Verwendung menschlicher Sprache durch Algorithmen bezeichnet man als Natural Language Processing, kurz NLP. Mit Hilfe von Programmen werden bereits große Textmengen (Automatic Summarization) im juristischen Bereich zusammengefasst. Emotionen, Meinungen oder die Einschätzungen in Texten sind derzeit noch eine besondere technische Herausforderung.

Die Erkennung, Verarbeitung und Verwendung menschlicher Sprache durch Algorithmen bezeichnet man als Natural Language Processing, kurz NLP. Mit Hilfe von Programmen werden bereits große Textmengen (Automatic Summarization) im juristischen Bereich zusammengefasst. Noch anspruchsvoller als das Zusammenfassen von Texten ist das Erkennen von subjektiven Inhalten (Sentiment Analysis).

Auf dem deutsch-sprachigen Markt bedienen sich einige Online-Portale bereits erfolgreich ähnlicher Algorithmen. Noch anspruchsvoller als das Zusammenfassen von Texten ist das Erkennen von subjektiven Inhalten (Sentiment Analysis). Emotionen, Meinungen oder die Einschätzungen in Texten sind derzeit noch eine besondere technische Herausforderung.

Die Erkennung, Verarbeitung und Verwendung menschlicher Sprache durch Algorithmen bezeichnet man als Natural Language Processing, kurz NLP. Mit Hilfe von Programmen werden bereits große Textmengen (Automatic Summarization) im juristischen Bereich zusammengefasst. Auf dem deutsch-sprachigen Markt bedienen sich einige Online-Portale bereits erfolgreich ähnlicher Algorithmen.

Auf dem deutsch-sprachigen Markt bedienen sich einige Online-Portale bereits erfolgreich ähnlicher Algorithmen. Passagiere, deren Flüge verspätet sind oder ausfallen, können über Seiten wie flightright.de oder fairplane.at automatisierten Rechtsbeistand suchen. Noch anspruchsvoller als das Zusammenfassen von Texten ist das Erkennen von subjektiven Inhalten (Sentiment Analysis).

Die Erkennung, Verarbeitung und Verwendung menschlicher Sprache durch Algorithmen bezeichnet man als Natural Language Processing, kurz NLP. Mit Hilfe von Programmen werden bereits große Textmengen (Automatic Summarization) im juristischen Bereich zusammengefasst. Passagiere, deren Flüge verspätet sind oder ausfallen, können über Seiten wie flightright.de oder fairplane.at automatisierten Rechtsbeistand suchen.

Wo ist der nächste Parkplatz?

Diese und 249 weitere Fragen zu den Themen der Stadt Wien kann man dem WienBot, einem öffentlichen Chatbot der Stadt Wien, stellen. Die Antworten liefert kein Mensch, sondern ein Algorithmus. Der WienBot beantwortet Fragen zu Bezirksämtern, Meldezetteln, Parkplätzen oder Veranstaltungen und bindet so Menschen ein, die schnell von unterwegs Informationen aus der Stadtverwaltung benötigen. Auf der Basis bereits gestellter Fragen lernt der WienBot und erweitert so permanent die Bandbreite seines Repertoires.

Was ist ein Chatbot?

Die Erschaffung künstlicher Gesprächspartner kann als die Königsdisziplin der künstlichen Sprach- und Textverarbeitung (Natural Language Processing) bezeichnet werden. Schon Alan Turing, dem „Erfinder“ des Computers, schwebte die Idee vor, dass Computer irgendwann in direkte Interaktion mit Menschen treten. Der nach ihm benannte Turing-Test ist dann bestanden, wenn der menschliche Benutzer der Überzeugung ist, sich mit einem anderen Menschen und nicht mit einer Maschine zu unterhalten.

Bereits jetzt treten künstliche Gesprächspartner in Form von Chatbots in Erscheinung. Die Stadt Wien beispielsweise präsentierte 2017 ihren WienBot, der Fragen zur Verwaltung in der Stadt Wien beantworten kann. Den Turing-Test bestehen diese Bots zwar noch nicht, aber auf einem thematisch eingeschränkten Gebiet sind sie bereits jetzt effizienter als menschliche Ratgeber.

Algorithmen können nicht nur Informationen in geschriebener Form verarbeiten. Ähnlich wie bei der Bilderkennung lassen sich auch in der menschlichen Sprache Muster für die Verarbeitung von Informationen auswerten. Bekannte Beispiele von Audio Processing sind Apples Spracherkennung Siri oder Amazons Heim-Assistent Alexa.

Audio Processing

Analog zur Verarbeitung von Bildern oder Videos beschäftigt sich Audio Processing mit der Erkennung von Informationen in Audioinhalten. Ähnlich wie bei Computer Vision werden bei Audio Processing natürliche Bestandteile der Sprache wie Frequenzen in Zahlenfolgen umgewandelt. Diese Zahlenfolgen können identifiziert und einzelnen Wortbestandteilen zugeordnet werden. Bei der Spracherkennung schließt dieser Prozess letztendlich an Verfahren der künstlichen Sprach- und Textverarbeitung (Natural Language Processing) an und ermöglicht eine Interaktion zwischen Mensch und Maschine.

© React Simple Chatbot von Lucas Bassetti (MIT Lizenz)

Die „dunkle Seite“ von Instagram

Besonders Nutzerdaten aus Social-Media-Plattformen sind zu einem reichhaltigen Fundus für Machine-Learning-Experten geworden. Aus Millionen von Text-, Bild- und Videoinformationen, die Nutzer täglich auf Twitter, Facebook oder Instagram „posten“, können Algorithmen wertvolle Informationen gewinnen. Dies zeigt die aktuelle Forschung des Harvard-Psychologen Andrew Reece. Gemeinsam mit seinem Kollegen Christopher Danforth von der Universität von Vermont ist es ihm gelungen, aus Instagram-Bildern Elemente (sogenannte Predictive Marker) zu entnehmen, die zuverlässige Rückschlüsse auf die mentale Gesundheit des jeweiligen Nutzers zulassen. Bei 166 Testpersonen gelang es den Forschern mit Hilfe der Predictive Marker nicht nur, genauer als menschliche Experten Depressionen vorherzusagen. Sie waren auch in der Lage, auf der Grundlage von Posts, die noch vor der klinischen Diagnose getätigt worden waren, psychische Krankheiten zu erkennen.

Computer Vision

Computer Vision erlaubt es Maschinen, zu sehen und die Inhalte von Bildern und Videos zu erkennen. Entscheidend für die Fortschritte von Computer Vision sind die gesteigerte Rechenleistung sowie Methoden aus dem Machine Learning, die Erkennung von wiederkehrenden charakteristischen Mustern oder der Einsatz von Deep Learning. Bildinformationen werden hierbei in Zahlenmuster umgewandelt, die wiederum von Algorithmen interpretiert werden können.

Computer Vision kommt in verschiedenen Bereichen bereits jetzt serienmäßig zum Einsatz. In der Festkörperphysik beispielsweise ist Computer Vision dem menschlichen Auge schon lange überlegen. Vielversprechende Resultate erzielt Computer Vision wie zuvor beschrieben auch in der Medizin.

Beethoven, Bach oder Beta-Version?

Selbst bei der Weiterverarbeitung von kreativen Audioinhalten wie Musik machen Algorithmen große Fortschritte. Das Forschungsteam von Professor Francisco Vico an der Universität Malaga entwickelte einen Algorithmus namens Iamus, der auf der Grundlage klassischer Musikstücke in der Lage ist, selbst Symphonien und Lieder zu schreiben. Einem Testpublikum war es nicht möglich, die Musik des Algorithmus zuverlässig von den Werken neuer menschlicher Künstler oder alter Klassiker zu unterscheiden. Während Iamus bereits mehr als eine Milliarde Lieder verschiedenster Sujets „geschrieben“ hat, ist sein Erfinder Vico davon überzeugt, dass „kreative Algorithmen“ in wenigen Jahren in allen erdenklichen Kunstformen Anwendung finden werden. Etwa im Malen von Bildern oder Designen von Möbeln.

Für alle Formen von Machine Learning gilt: Je größer die zur Verfügung stehende Datenmenge, desto höher die Zuverlässigkeit. Frei zugängliche Datensätze wie Googles Bilderdaten oder Twitter-Texte erweitern täglich die Trainingsmöglichkeiten und damit die Präzision von Machine-Learning-Algorithmen. Dies ist einer der Gründe, warum Open-Data-Bewegungen die freie Bereitstellung aller Daten in Maschinen-lesbarer Form fordern.

Einmal Herz und zweimal Niere, bitte!

Die beschleunigte Rechenleistung und schnelle Verbreitung von Daten hat auch weitreichende Folgen in der Medizin. Von Additive Manufacturing (eine Form von 3-D-Druck) werden revolutionäre Ergebnisse erwartet.

Bereits jetzt können medizinische Prothesen in 3-D-Druck-Verfahren auf individuelle Bedürfnisse angepasst und hergestellt werden. Experimentell wird bereits im Bereich des Druckens von organischem Gewebe, dem Bioprinting, gearbeitet. Durch die Ummantelung von körpereigenen Zellen als Druckmaterial könnte diese Technik in einigen Jahren den Engpass auf dem Markt für Spenderorgane beenden. Momentan steckt das Bioprinting noch in seinen Kinderschuhen, doch ein geschätztes Volumen von 1,3 Milliarden US-Dollar bis 2021 lässt das enorme Wachstumspotenzial dieser Branche erahnen.

Was bedeutet Additive Manufacturing?

Diese Technologie erlaubt es ihren Nutzern, dezentral und individuell Gegenstände zu produzieren. Besonders in Entwicklungsländern, für die internationale Produktionsketten relativ teuer sind, wird 3-D-Druck zu einer Alternative bei der Erstellung von Produktionsteilen. Aber auch in industrialisierten Ländern hat 3-D-Druck bereits jetzt vielseitige Anwendungsmöglichkeiten, die sich in den nächsten Jahren stark ausweiten werden. Das Additive-Manufacturing-Verfahren macht das „Unmögliche“ möglich: die Massenproduktion von Waren, die in hohem Maße individualisiert sind. Bei Modeketten können sich Kunden innerhalb weniger Minuten selbst designte Kleidungsstücke vor Ort herstellen lassen. Persönliche Modifikationen können zuvor vom Endnutzer selbst über das Internet von zu Hause aus vorgenommen werden.

Chronik der Wertschöpfung Abb. 8: Während individuell an die Bedürfnisse des Trägers angepasste Kleidung früher ein kleines Vermögen gekostet hat, ist es heute durch neue Technologien wie das 3-D-Scan-Verfahren und intelligente Robotik möglich, optimal angepasste Kleidungsstücke zu leistbaren Preisen anzubieten.

Empfehlungen für die Zukunft

Die Digitalisierung ist nicht aufzuhalten. Es gilt daher die Chancen neuer Technologien zu nutzen und mögliche Gefahren zu minimieren. In diesem Sinne sind die folgenden Handlungsvorschläge nur ein Ausschnitt aus einem Entwurf für die umfassende Gestaltung einer digitalen Gesellschaft.

Verfügbarkeit öffentlicher Daten garantieren

Daten sind der Treibstoff des digitalen Fortschritts. Daten über staatliche Ausgaben, aber auch Informationen, die über Sensoren (Verkehrsaufkommen, Luftqualität etc.) von öffentlichen Einrichtungen erhoben werden, sollten jedem Bürger in technisch zugänglicher Form aufbereitet auf Online-Portalen zur Verfügung stehen. Die Offenlegung von Behördendaten, die von Computern lesbar sind, erhöht die öffentliche Teilhabe. Nicht davon betroffen sind personifizierte Daten.

Auch Innovation und Wirtschaft werden durch die Offenlegung von Daten gefördert. Das zeigt etwa das Beispiel von anonymisierten Mikrodaten in Dänemark. Dort legen Unternehmen, die öffentliche Förderungen bekommen haben, firmeninterne Daten in anonymisierter Form offen. So kann auch wissenschaftlich überprüft werden, ob die staatlichen Fördermittel fruchtbringend eingesetzt worden sind.

Digitale Fähigkeiten lebenslang schulen

Je früher digitale Fähigkeiten erlernt werden, desto besser. In Digitalwerkstätten können Kinder bereits im Alter von sechs bis 14 Jahren spielerisch den Umgang mit Programmiersprachen erlernen. Besonders in dieser frühen Bildungsphase kann Gamification – das Erlernen von Inhalten über spielerische Anwendungen – einen wichtigen Beitrag leisten. Finnland, das 2016 ein neues digitales Curriculum (Schulstufe 1–9) eingeführt hat, nutzt bereits jetzt spielerische Anleitungen zum Erlernen von Programmiersprachen in den ersten Bildungsjahren. Ebenso werden junge Menschen über „teaching coding through storytelling“ spielerisch mit vermeintlich trockenen Programmiersprachen vertraut gemacht.

In späteren Bildungsphasen sollten „Open-Book-Tests“ erprobt werden, also bei Prüfungen auch elektronische Hilfsmittel eingesetzt werden.

Anerkennung von Online-Bildung erweitern

In Kombination mit der schulischen Förderung nehmen internetbasierte Bildungsformen eine wichtige Rolle ein. Durch ein standardisiertes Verfahren sollte die Anerkennung von Online-Kursen wie MOOCs im Bildungsbereich, aber auch auf dem Arbeitsmarkt (Aus- und Fortbildungszertifikate) ermöglicht werden. Nach dem Vorbild der „Open University“ ist die Chance, sich unabhängig von seinem formalen Bildungsgrad lebenslang weiterbilden zu können, essenziell für die Informationsgesellschaft. Nach dem finnischen Vorbild sollen diese Online-Kurse auch in Österreich als Bestandteile von Studien- oder Ausbildungsleistungen anerkannt werden. Online-Ausbildungsangebote bieten darüber hinaus die Möglichkeit flexibler Umschulung in unterschiedlichsten Lebensphasen. Sie sind daher von besonderer Bedeutung angesichts der sich schnell ändernden Anforderungen an Arbeitnehmer. Auch Lehrer können MOOCs selbst zur Weiterbildung nutzen. Die finnische CODING Initiative hat einen kostenlosen MOOC für Lehrer entwickelt, mit dem man sich notwendige Kompetenzen im Bereich des Programmierens aneignen kann.

Personalisierte Bildung ermöglichen

Neue Technologien ermöglichen hochwertige und personalisierte Bildung, die auf die eigenen Fähigkeiten, Bedürfnisse und Interessen zugeschnitten ist. Auch in Österreich sollten US-amerikanische Pilotprojekte im Schul- und Universitätsbereich ähnlich der School of One erprobt werden. In jedem Bundesland könnten sich Schulen um die Stelle einer Pilotschule bewerben. Diesen würde die technische Infrastruktur, die personalisierten Unterricht in einem Beispielfach erlaubt, vom Staat oder Privaten zur Verfügung gestellt werden. An der New Yorker School of One ist es gelungen, durch die Anwendung von Big-Data-Algorithmen Inhalte des Mathematikunterrichts stark zu individualisieren. So wurde der gleiche Lehrinhalt den Schülern je nach deren Fähigkeiten in unterschiedlichen Formen und für deren besseres Verständnis vermittelt. Dadurch konnten die Erfolgsraten der Schüler erheblich gesteigert werden.

Digitale Stammdatenbank einführen

Die Speicherung und digitale Übermittlung medizinischer Stammdaten ermöglicht fortschrittliche Diagnosemethoden. Die Verfügungsgewalt der Patienten über ihre Daten bleibt garantiert; sie bestimmen selbst, ob ihre Daten genutzt werden dürfen oder nicht. Daher ist eine Aufklärung der Patienten über den gesellschaftlichen Nutzen von Patientendaten unerlässlich.


Teilen Sie den Artikel in sozialen Netzwerken!

Fußnoten
  1. Atkinson & Wu (2017).
  2. Brynjolfsson und McAfee (2014).
  3. 264-1 = 18.446.744.073.709.551.615 in Weizen wiegen in etwa 1.199 Milliarden metrische Tonnen. Die globale Weizenproduktion im Jahr 2014 betrug 729 Millionen metrische Tonnen.
  4. Explizit ist von der Anzahl an Transistoren in einem Schaltkreissystem die Rede (Moore 1998).
  5. Brynjolfsson & McAfee (2014).
  6. 10.000.000.000.000.000 oder 10 Billiarden Rechenschritte pro Sekunde.
  7. Kurzweil (2005).
  8. Nach dem Zerfall der Blockstaaten hat es Estland in nur 25 Jahren geschafft, eine moderne Infrastruktur aufzubauen und zu einem internationalen Beispiel für digitale Verwaltung zu werden.
  9. Etwa 500 Terabyte (Lyman & Varian 2003).
  10. Rund ein Zetabyte oder eine Trilliarde Bytes.
  11. An der Georgia Tech University lieferte das Forschungsprojekt StealthVest den ersten Prototyp eines Kleidungsstücks mit medizinischen Sensoren.
  12. Das kalifornische Start-up Predictive Medical Technologies hat einen Algorithmus entwickelt, der Risikopatienten 24 Stunden im Voraus vor einem möglichen Infarkt warnt.
  13. Der Datenrecht-Experte Viktor Mayer-Schönberger beispielsweise plädiert für das „Recht auf Vergessenwerden“, mit dem jeder Nutzer selbst über die Lebensdauer seiner persönlichen Daten im digitalen Raum entscheiden kann (Wikipedia 2017). Die Wiener Initiative „OwnYourData" setzt sich für persönliche „Datentresore“ ein, in denen jeder Nutzer seine eigenen Daten behält und nur ausgewählten Firmen Zugriff innerhalb des Tresors erlaubt (OwnYourData 2017).
  14. Nilsson (2009).
  15. Markoff (2016).
  16. Simonite (2017).
  17. Luhn (1958).
  18. Leitner (2017).
  19. Reece & Danforth (2017).
  20. Xing & Gao (2014).
  21. Melchels et al. (2012).
  22. Eine Produktionsform, bei der Gegenstände dadurch entstehen, dass immer neue Einzelschichten übereinandergelegt werden.
  23. Lewis (2017).
  24. Wired (2016).
  25. Mannila (2016).
  26. Rakuten (2016).
  27. MOOC steht für Massive Open Online Course. Dabei handelt es sich, wie der Name sagt, um einen Massen-Online-Kurs, der als Alternative zu klassischen Lehrveranstaltungen in der Universität anzusehen ist. Mittels Lesematerial, Videos und Foren werden hier Informationen einem breiten Publikum zu sehr geringen Kosten bereitgestellt.
  28. Die englische Open University ist die größte staatliche Universität in Europa. Für eine Großzahl der 70 Studiengänge bestehen weder physische Anwesenheitspflicht noch Aufnahmebedingungen. Lehrmittel werden kostenlos digital zur Verfügung gestellt und Studierende werden (persönlich oder über digitale Kommunikationskanäle) von Tutoren betreut. Die Open University gehört zu den weltweit besten Business Schools.
  29. Koodiaapinen (2017).
05/2018

Inhalt: Die Digitalisierung macht vielen Menschen Angst. Ein Großteil hat Sorge, durch neue Technologien den Job zu verlieren. Ein seriöser Blick auf die Zukunft der Arbeit zeigt aber, dass jede technologische Revolution neue, zusätzliche Arbeitsplätze hervorgebracht hat. Welche Veränderungen uns erwarten – und warum diese keineswegs nur negativ sein werden, erfahren Sie hier.
09/2018

Inhalt: Viele Staaten stehen dem Wunsch des Bürgers nach zeitgemäßen Dienstleistungen ratlos gegenüber. Estland, ein kleines Land im Baltikum, hat vorgemacht, wie digitale Verwaltung aussehen kann.
4. Quartal 2018

Literatur