Die Zeit ist jetzt reif für Computer und Smartphones mit einer am Menschen orientierten Intelligenz. Was aber treibt diese Entwicklung, heute und in den nächsten Jahrzehnten an?
Ein Faktor, der erheblich dazu beiträgt, dass solche Systeme realisiert werden können, ist die exponentielle Zunahme der Rechengeschwindigkeit und der Menge an speicherbaren Daten. Musste man in den 60er Jahren mit einen Arbeitsspeicher von 192 Kilobyte auskommen, so verfügte der IBM-Rechner Watson beim „Jeopardy“-Spiel im Jahr 2011 bereits über einen Arbeitsspeicher von 16 Terabyte. Das ist 83-Millionen-mal mehr als in den 60er Jahren und zugleich mehr, als alle Bücher vieler Bibliotheken.
Letztlich basiert all diese Steigerung auf dem Mooreschen Gesetz. Es besagt, dass sich die Zahl der Transistoren, also der elektronischen Schaltelemente, auf einem Fingernagel großen Mikrochip alle 18 bis 24 Monate verdoppelt. Dieser Wert ist ein entscheidender Faktor für die Rechenleistung und die Speicherfähigkeit der Chips.
So besaß der erste Prozessor, der Intel 4004, im Jahr 1971 2300 Transistoren. 20 Jahre später hat der Prozessor schon 1,2 Millionen Transistoren, und wieder 20 Jahre später über 1,2 Milliarden Transistoren.
Dies entspricht einer Zunahme um das 1000-Fache binnen 20 Jahren ohne dass die Kosten für solche Mikrochips wesentlich gestiegen sind.
Den Effekt kann jeder bei seinem Smartphone bewundern. Das beste Smartphone von heute ist mit rund 100 Milliarden Rechenoperationen pro Sekunde fast so schnell wie der beste Supercomputer Mitte der 90er Jahre. Zugleich sanken die Kosten um einen Faktor 10 000, und heutige Smartphones brauchen auch nur noch ein Zehntausendstel bis ein Hunderttausendstel der Leistung des damaligen Supercomputers. Da jedes Jahr etwa eine Milliarde Smartphones weltweit verkauft werden, kann man sagen, dass heute Milliarden von Menschen Computer mit sich herumtragen, die annähernd so leistungsfähig sind wie Supercomputer vor 20 oder 25 Jahren.
Zugleich nimmt auch die Kommunikationsfähigkeit der Computer immer mehr zu, also de Anzahl an Daten, die pro Sekunde übertragen werden können, egal ob per Kabel, Glasfaser oder drahtlos per Funk. In den Netzen der bislang üblichen dritten Mobilfunkgeneration UMTS sind Datenraten von wenigen Megabit pro Sekunde bis maximal 42 Megabit pro Sekunde möglich. Bei der vierten Generation von Mobilfunk LTE lassen sich 100 bis maximal 1000 Megabit pro Sekunde erreichen. Für die fünfte Generation 5G, die in den nächsten Jahren zum Einsatz kommen wird, planen die Netzbetreiber mit 10 bis 50 Gigabit pro Sekunde, also mit zehn bis 50 Milliarden Informationseinheiten pro Sekunde. Das wäre rund 1000x schneller als bei heutigen WLAN-Netzen.
Zur Verdeutlichung. Mit UMTS (3G) braucht man mehrere Minuten, um eine DVD (ca. 800MB) auf sein Smartphone zu laden. Mit LTE geht das in einer Minute und mit 5G in unter einer Sekunde. Allerdings vorausgesetzt, man wäre allein in der jeweiligen Funkzelle, weil sich alle Netzteilnehmer die maximale Datenrate einer Funkzelle teilen. Doch obwohl die Zellen in Zukunft kleiner werden, von heute einigen Kilometern dürfte der Durchmesser einer Funkzelle auf vielleicht 100m schrumpfen, wird man sicher sehr selten eine Funkzelle alleine nutzen können. Denn es werden nicht nur Milliarden von Menschen mobil Kommunizieren wollen, sondern im nächsten Jahrzehnt auch Milliarden von Maschinen.
Die Autos werden dann ebenso per Funk im Internet hängen wie Roboter in Fabriken und Haushalten, Drohnen in der Luft oder Sensoren in den Energienetzen.
Es wird in 10 oder 15 Jahren möglich sein, 3D-Filme in kinotauglicher Auflösung aus dem Internet auf ein Mobilgerät zu streamen oder hochauflösende räumliche Daten, etwa eines Autos, herunterzuladen und in Echtzeit zu bearbeiten, während die Autoentwickler gleichzeitig eine Videokonferenz mit wirklichkeitsnaher Darstellung der Teilnehmer abhalten. Und das ganze vielleicht sogar, während sie in einem Hochgeschwindigkeitszug mit 500 Km/h durch Deutschland rauschen.
Alles in allem werden wir daher in den nächsten 20 bis 25 Jahren, also bis 2035 oder 2040, noch einmal eine Vertausendfachung der Rechenleistung. Das was ein heutiger Supercomputer kann, könnte also im Jahr 2040 in jedem Smartphone stecken.
Dies hat interessante Konsequenzen. Denn nach Ansicht von vielen Forschern ist die Rechenleistung und Speicherfähigkeit des menschlichen Gehirns etwa um ein Faktor 10 000 größer als die der besten Smartphones von heute. Das bedeutet dann also, dass die Menschen des Jahres 2050 sozusagen ein zweites Gehirn mit sich herumtragen würden!
Ob dieses zweite Gehirn in der Hosentasche dann aber auch so viel leisten kann wie das erste im Kopf, das hängt davon ab, wie gut es gelingt, die Informationsverarbeitung des menschlichen Gehirns nachzubilden. Also die Software, die unsere kognitiven Prozesse beschreibt. Wie wir die Umgebung und uns selbst wahrnehmen, wie wir lernen und planen, wie wir fühlen und wie wir als soziales Wesen handeln.
Doch neben den Weiterentwicklungen der Mikrochips, der Software und der Kommunikationstechnik gibt es noch weitere Treiber für den Fortschritt der künstlichen Intelligenz. Die Cloud. Dank der Cloud müssen Mobilgeräte und Roboter nicht mehr alles, was sie an Daten und Programmen benötigen, bei sich tragen, sondern können es bei Bedarf aus dem Netz herunterladen oder auch Berechnungen ins Netz auslagern.
Jeden Tag werden Milliarden von Bildern und Textdateien sowie viele Millionen von Videos und Audiodateien ins Netz hochgeladen. Dies lässt sich als Trainingsmaterial für die künstliche Intelligenz nutzen. Einem Netz, das an Millionen von Katzenbildern üben kann, fällt es nicht mehr schwer, auch unbekannte Katzen als solches zu erkennen. Dasselbe gilt für Spracherkennung und Übersetzungsprogramme. Siri, Google Home oder Amazon Echo sind auch deswegen in den letzten Jahren deutlich leistungsfähiger geworden, weil sie an sehr vielen Hörbeispielen aus dem Internet und anderen, speziellen Cloud Datenbanken trainiert und getestet werden.
Wie geradezu explosiv diese Entwicklung ist, zeigt eine einfache Rechnung. Experten schätzen, dass die Menschheit bis zum Jahr 2000 etwa zwei Exabyte an Daten erzeugt hat. Heute entsteht diese Datenmenge an einen Tag. Aber wo entstehen diese Datenmengen? Zum einen von Milliarden von Menschen mit ihren Smartphones und Computern. Zum anderen aber auch von Maschinen, Sensoren und anderen Geräten. Rund 200 Milliarden von ihnen sammeln heute Daten und zwischen 5 und 15 Milliarden kommunizieren bereits über das Internet.
Ein paar Beispiele. Musste man früher persönlich am Flughafen einchecken, so geht dies heute über Computer oder Smartphone. Dabei prüfen etliche Automaten selbstständig die persönlichen Daten, den Flugstatus und die Sitzplatzreservierung.
Ähnlich in Fabriken. Hier sprechen Fertigungsmaschinen sowie Maschinen im Warenlager mit den Computern des Einkaufs und denen der Zulieferer, um rechtzeitig Nachschub zu organisieren, ohne dass in diesem Prozess ein Mensch involviert ist.
In den Energienetzen gilt dasselbe. Jeder Intelligente Stromzähler produziert etwa ein Gigabyte an Daten pro Jahr. Bis zum Jahr 2020 sollen weltweit etwa 800 Millionen im Einsatz sein, das ergibt dann also jedes Jahr 0,8 Exabyte an Messdaten.
Oder in der Medizin. Hier durchforsten Programme bereits selbständig Millionen von medizinischen Texten und bieten den Ärzten dann Aussagen zu Diagnosen.
Allein per Ultraschall oder Röntgen entstehen heute pro Jahr etwa 500 Millionen Gigabyte an Daten. 2020 sollen es bereits 25 Milliarden Gigabyte, also 25 Exabyte sein.
In diesen gigantischen Datenuniversum gibt es nicht nur Smartphones, Selbstfahrende Autos und Smart Home, sondern auch Smart Energy, Smart Cities und Smart Health. Es wird alles in der ein oder anderen Weise smart durch die künstliche Intelligenz.
Bis 2020sollen nach Schätzungen von Cisco im Internet der Dinge mindestens 50 Milliarden Objekte vernetzt sein und Daten austauschen. In der Verkehrstechnik ebenso wie in der Industrie. Im Gesundheitswesen wie in den Gebäuden. In Energiesystemen oder zur Überwachung der Umweltbedingungen in Städten, den Wäldern, den Meeren und der Luft.
Und im Zentrum all dieser Technologien stehen dann die Systeme der künstlichen Intelligenz und die Roboter. Um sie dreht sich das digitale Universum.
Wie leistungsfähig und wie intelligent sie sind, das entscheidet darüber, wie nützlich oder gar wie gefährlich diese neuen Entwicklungen sein werden.