ICT-News Dach

Künstliche Intelligenz braucht Fachwissen

Holm Landrock

Holm LandrockÜberall sprechen IT-Experten von KI. Was gestern noch „automatisch“ lief, funktioniert dank der „KI“ morgen „autonom“? Das ist oft sehr blumig formuliert und nicht immer richtig. Über die Ziele, Ressourcen und Technologien muss gesprochen werden.

Der Begriff „künstliche Intelligenz“ (KI) wurde schon vor rund 60 Jahren verwendet. Den Anfang bildeten Forschungen, bei denen natürliche neuronale Netze wie im menschlichen Nervensystem durch künstliche neuronale Netze nachgebildet wurden. Die Idee dahinter war, eine Maschine in die Lage zu versetzen, sich menschenähnlich zu verhalten. Dem künstlichen neuronalen Netz „Perzeptron“ von 1958 gelang es, 400 Bit (!) große Schwarz-Weiß-Bilder miteinander zu vergleichen. Der Rechner füllte ein Bürozimmer. Mehr Leistung hätte mehrere Räume vorausgesetzt, undenkbar bei den Kosten für ein analoges elektronisches Bauteil vor 60 Jahren.

Warum Rechenleistung noch keine Intelligenz garantiert

Die Elektronikbranche hat in den letzten Jahren einige Entwicklungszyklen hinter sich gebracht, in deren Folge Rechenleistung und Speicherplatz von Computern exponentiell wuchsen, während Bauteilgrößen und Preise exponentiell schrumpften. Auch die akademische Forschung ist nicht stehengeblieben. Zu den Leuchttürmen zählt in Deutschland etwa das Deutsche Forschungszentrum für Künstliche Intelligenz. Heute sind daher enorme technische Ressourcen auf kleinstem Raum und zu nach wie vor sinkenden Kosten verfügbar. Weil manches schneller geht als vor 20 oder 40 Jahren, wächst natürlich der Eindruck, die Maschinen würden „schlauer“. Das stimmt aber leider fast nie.

Lernen, lernen und nochmals lernen

Künstliche neuronale Netze müssen angelernt werden. Damit sie lernen können, benötigen sie riesige Mengen an Daten, Big Data, und sie benötigen Menschen, die bestätigen, was richtig und was falsch ist. Das in letzter Zeit häufiger propagierte Beispiel der automatischen Erkennung von Erkrankungen auf Röntgenbildern wäre sicher ein großer Fortschritt, gerade auch für Patienten, für die präzise und frühzeitige Diagnosen eine Überlebensfrage sein können. In Deutschland produziert das Gesundheitssystem jährlich gewaltige Mengen an Bildern aus Computer- und Magnet-Resonanz-Tomographen. Da liegt der Verdacht nahe, dass hinter allzu blumigen Versprechen automatische Analysen solcher Bilder durchzuführen, eigentlich die Absicht steckt teure Technik zu verkaufen. Zum Lernen müssen sich die Maschinen nämlich zunächst einmal abertausende oder Millionen Bilder aus bildgebenden Systemen ansehen und vergleichen. Entdecken sie eine Unregelmäßigkeit, müssen erfahrene Radiologen auf die Bilder sehen, um einen Schatten als pathologisch oder als nicht pathologisch einzuordnen. Diese Zusatzarbeit ist aufwändiger, als Algorithmen beizubringen, ob auf einem Bild ein Auto oder ein Tier abgebildet ist. Deshalb wird es noch einige Jahre dauern, bis Computer tatsächlich die Arbeit eines Radiologen übernehmen können.

Ein erfolgreiches KI-Projekt darf also durchaus etwas bescheidener und kleiner angefangen werden, es muss nicht immer gleich die Rettung der Menschheit sein. Wie wäre es mit einem KI-System für die Verbesserung der Eingangsqualitätskontrolle in einem Fertigungsunternehmen? Produktqualität, Produktverfolgung, gesetzliche Vorgaben und Kundenzufriedenheit wären gute Argumente für eine neue Art der technischen Unterstützung in der Eingangskontrolle.

Automatisch oder schon autonom?

Indem Maschinen mit künstlichen neuronalen Netzen etwas lernen, werden sie menschenähnlicher. Schnell ist dann von autonomen Systemen die Rede. Wo genau der Unterschied zwischen einem automatischen und einem autonomen System liegt, wird gerne zugunsten des Buzzwords „autonom“ eher schwammig definiert. Industrieroboter bewegen sich zunächst im Rahmen eines vorgegebenen Programms automatisch. Sie führen vorprogrammierte, feste Abläufe aus. Sie könnten zum Beispiel mit künstlichen neuronalen Netzen und zahllosen Kameras lernen, ihre Umgebung zu beobachten. Dann würden sie in gewisser Weise autonom werden, beispielsweise Entscheidungen treffen, die nicht vorprogrammiert sind. Welche Entscheidungen das wären, müsste allerdings auch wieder ein Mensch vorgeben. Das könnte die Entscheidung sein: „Halte den Bewegungsablauf an, wenn der Bauraum nicht frei von Fremdkörpern ist.“ Erlernen müssten sie das mit extrem teuren Computerverfahren. Sie könnten aber auch einfach und nicht ganz so teuer – und daran arbeiten die Roboterhersteller bereits – mit einer Oberfläche versehen werden, die Annäherungen in elektrische Signale umwandelt. Diese bringen den Roboter zum Halten, wenn sich ein Bediener zu dicht dem Roboterarm nähert. Auch dann reagiert die Maschine extrem schnell und verbessert so die Arbeit von Mensch und Maschine in der gleichen Umgebung.

Big Data – die Basis für KI

Künstliche Intelligenz wird noch eine Weile benötigen, bis sie tatsächlich den Alltag von Menschen in ausgewählten Umgebungen erledigt, also Pakete völlig ohne Programmierung auch in den dritten Stock im Hinterhaus des Berliner Altbaus bringt oder ein Röntgenbild interpretiert oder sich ein biochemisches Experiment ausdenkt und durchführt. Zum Erfolg der Konzepte ist es notwendig, Grundlagen zu schaffen. Dazu gehört zunächst vor allem das Sammeln von Daten. Für das Sammeln von Daten sind die in den letzten Jahren auf den Markt gebrachten Big-Data-Technologien nützlich. Wer sich den Aufwand im eigenen Rechenzentrum sparen will, sammelt seine Daten in der Cloud und verarbeitet sie auch dort. Analysen für Business Intelligence, Wartungsvorhersagen oder die Verbesserung von Geschäftsprozessen gewinnen aus diesen Daten Informationen. Berücksichtigen die Analysen darüber hinaus auch Daten, die ursprünglich nicht für den konkreten Zweck erhoben worden sind, werden möglichweise neue Zusammenhänge sichtbar – ein Grundstein für die Entwicklung von KI-Verfahren, weil für KI die vorhersehbaren Informationen (also das, was sich programmieren lässt) mit unvorhersehbaren Informationen (also dem, was sich noch ereignen kann) gemeinsam verarbeitet werden müssen.

Hier wird das Potenzial für mögliche weitere Entwicklungen erkennbar, die weitere Fragen aufwerfen: Werden Systeme sich autonom gestalten lassen? Wie lässt sich die im Rahmen von Industrie 4.0 unter anderem angestrebte Massenindividualisierung (Stichwort „Losgröße 1“) realisieren, indem sich das System ohne Vorprogrammierung an jeden Auftrag anpasst? Welche Daten sind für eine automatisierte Weiterverarbeitung geeignet? Welche Systeme im Unternehmen können von künstlicher Intelligenz profitieren? Welche Ressourcen werden benötigt?

Bei diesen Überlegungen wird auch sichtbar, welche Ressourcen benötigt werden, um ein System im Unternehmen von der Bohrmaschine bis zur Ölbohrplattform für den autonomen Betrieb zu entwickeln oder von der Eingangsqualitätskontrolle bis zur Ausgangsqualitätskontrolle mit KI auszurüsten. Künstliche Intelligenz fällt nicht vom Himmel. Die trotz aller Leistungssteigerungen komplexen KI-Systeme benötigen auf allen Technologieebenen neue Entwicklungen. Vereinzelt werden bereits Bibliotheken mit Programmfunktionen angeboten, die aber von Programmierern noch aufwändig zu Applikationen zusammengefügt werden müssen. Die Entwickler sind noch dünn gesät, denn gerade erst haben sich viele Programmierer in Richtung Big-Data-Technologien fortgebildet. Anwender, die gerade dabei sind, die genannten Schritte in Richtung Datensammlung und -analyse zu gehen, können also gleich mit nach den Partnern und Mitarbeitern suchen, mit denen die nächste Welle im „Trend-Ozean“ genommen werden kann.