Künstliche Intelligenz mit Hausverstand

Veröffentlicht von: PR&D - Public Relations für Forschung und Bildung
Veröffentlicht am: 27.06.2016 12:49
Rubrik: Wissenschaft & Forschung


(Presseportal openBroadcast) - Eine neue Generation autonomer Roboter soll künftig Aufgaben selbstständig lösen können, auch dann, wenn Unvorhersehbares passiert. Informatiker der Technischen Universität Graz treiben mit Unterstützung des Wissenschaftsfonds FWF die Entwicklung der künstlichen Intelligenz voran und bringen den Robotern Hausverstand bei.

Was Kinder spielend lernen und Erwachsene aufgrund ihrer Erfahrungen beherrschen, zum Beispiel auf unerwartete Situationen zu reagieren, stellt immer noch eine der großen Herausforderungen in der Robotik dar: Autonome Systeme sollen vom Menschen vorgegebene Aufgaben selbstständig lösen können. Besonders in kritischen Situationen wäre der Einsatz von solchen intelligenten Robotern von großer Bedeutung – etwa bei Umweltkatastrophen oder Industrieunfällen. Weltweit beschäftigen sich Wissenschafterinnen und Wissenschafter daher mit der Frage, wie Roboter auch in ungewöhnlichen und neuen Situationen ihre Ziele mit den ihnen verfügbaren Ressourcen eigenständig erreichen können. Auch Gerald Steinbauer von der Technischen Universität (TU) Graz arbeitet seit Jahren in der Grundlagenforschung an der Entwicklung des intelligenten und autonomen Roboters mit.

Der Schlussfolgerungsmechanismus
In einem vor Kurzem abgeschlossenen Projekt des Wissenschaftsfonds FWF haben sich Steinbauer und sein Team der Aufgabe gestellt, einem Roboter so etwas wie Hausverstand beizubringen. "In unserer Umwelt passieren immer wieder Überraschungen oder kleine Irrtümer, wie etwa dass ich im fünften Stock eines Gebäudes lande, statt im dritten. Wenn ein Roboter nicht merkt, dass er im falschen Stockwerk ist, kann er seine Aufgabe nicht erfüllen", nennt Steinbauer ein einfaches Beispiel. In dem Projekt haben die Grazer Forscherinnen und Forscher nun eine Art Schlussfolgerungsmechanismus entwickelt, der es dem Roboter erlaubt, solche Irrtümer zu erkennen und daraus Reparaturaktionen für sein Wissen abzuleiten. "Wir haben Schlussfolgerungen mit dem sogenannten Situationskalkül in Logik abgebildet. Dieses ermöglicht, die von einem Agenten ausgeführten Aktionen und deren Effekte zu beschreiben", erklärt Steinbauer.

Das Weltbild des Roboters bauen
Die Informatiker der TU Graz erstellen dabei laufend automatisch Diagnosen, indem sie beobachten, wo das Wissen des Roboters mit der aktuellen Situation nicht mehr zusammenpasst. Dabei konnten sie herausfinden, dass das Situationskalkül sowohl für die Überwachung und Diagnose genutzt werden kann als auch für die autonomen Entscheidungen des Roboters. Aus dem Wissen, was eine Aktion bewirkt, lernt der Roboter abzuleiten, was er als nächstes tun muss. Stimmt das Wissen des Roboters mit den Anforderungen in der realen Welt nicht mehr überein, weil sich eben eine Situation verändert hat, wird das "Weltbild" des Roboters zurechtgerückt. "Wir versuchen in Einklang zu bringen, was der Roboter geplant hat und was wirklich passiert ist, indem wir es formal niederschreiben", so Steinbauer. Im Test hat sich das Modell bereits bewährt: Ein Roboter, der mehrere Tage durchgehend im Forschungsinstitut mit einfachen Lieferaufgaben betraut wurde, ließ sich auch durch Tricks nicht irritieren.

Die Common-Sense-Datenbank
Um die aufwändigen Codierungen solcher Modelle zu erleichtern, teilen die verschiedenen Forschungsgruppen weltweit inzwischen ihr Know-how. So stehen etwa Common-Sense-Datenbanken frei zur Verfügung. Auch die Grazer haben auf dieses Wissen zurückgegriffen, um ihre Modelle anzureichern. "Das sind Sammlungen von Wissen, das für den Menschen ganz trivial ist, zum Beispiel, dass ein Objekt nie an zwei Orten sein kann", sagt Gerald Steinbauer. Die Informatiker wollen nun das Wissen des Roboters kontinuierlich ausbauen. Denn noch reicht dieses nicht aus, um sich in einer komplexen Welt zurechtzufinden.

Rechen- und zeitintensiv
Hinzu kommen weitere Faktoren, die die Grundlagenforschung im Bereich der Robotik vor große Aufgaben stellt. Autonome Systeme auszutesten, verlangt den Computern enorme Rechenleistung ab. Diese "Computational Complexity" ist noch sehr groß. "Da wir mit der Rechenleistung nicht zusammenkommen, können wir derzeit keine aufwändigen Beispiele durchtesten", erläutert der Experte. Das bedeutet: Stößt der Roboter auf ein Problem, kann es Stunden oder Tage dauern, bis er sie lösen kann. – Zeit, die im realen Leben nicht gegeben ist.

Noch viel Forschung notwendig
Das spannende in der Robotik sei, so Gerald Steinbauer, das Wissen des Roboters mit den Anforderungen der Welt zusammenzubringen. Hier brauche es jedoch noch viel Grundlagenforschung, betont der Informatiker. Etwa in den Bereichen Wahrnehmung und Kognition seien noch viele grundlegende Fragen zu lösen. "Wir müssen verstehen, wie zum Beispiel biologische Systeme wirklich funktionieren", betont Steinbauer in Hinblick auf die Umsetzung in der Praxis. Dass solide Grundlagenforschung der beste Wegbereiter für die angewandte Forschung ist, beweist unter anderem ein Start-up, das Doktoranden aus Steinbauers Team gegründet haben. Auch die Beteiligung des Instituts für Software Technologie an Bridge-Projekten des Wissenschaftsfonds FWF und der Forschungsförderungsgesellschaft FFG soll ermöglichen, dass Innovation in der Anwendung Wurzeln schlagen kann.

Pressekontakt:

Wissenschaftlicher Kontakt:
Ass. Prof. DI Dr. Gerald Steinbauer
Institut für Software Technologie
Technische Universität Graz
Inffeldgasse 16b/IIT
8010 Graz
T +43 / 316 / 873-5476; - 5723
E steinbauer@ist.tugraz.at
W www.tugraz.at

Der Wissenschaftsfonds FWF:
Marc Seumenicht
Haus der Forschung
Sensengasse 1
1090 Wien
T +43 / 1 / 505 67 40 - 8111
E marc.seumenicht@fwf.ac.at
W http://www.fwf.ac.at

Aussendung:
PR&D – Public Relations für Forschung & Bildung
Mariannengasse 8
1090 Wien
T +43 / 1 / 505 70 44
E contact@prd.at
W http://www.prd.at

Bitte beachten Sie, dass für den Inhalt der hier veröffentlichten Meldung nicht openBroadcast verantwortlich ist, sondern der Verfasser der jeweiligen Meldung selbst. AGB | Haftungsausschluss.