威尼斯赌博游戏_威尼斯赌博app-【官网】

图片

威尼斯赌博游戏_威尼斯赌博app-【官网】

图片

Wie kann man die Strategien selbstlernender Agenten am besten nachvollziehen?

Die Zeitschrift "Artifical Intelligence Journal" akzeptierte kürzlich einen wissenschaftlichen Artikel, den unsere Kollegen Tobias Huber, Katharina Weitz und Prof. Dr. Elisabeth André vom Lehrstuhl für Menschzentrierte Künstliche Intelligenz zusammen mit der Forscherin Ofra Amir vom Technion Israel Institute of Technology verfasst haben. Das Journal geh?rt zu den angesehensten Zeitschriften für Forschung zu Künstlicher Intelligenz. Unser Artikel "Local and global explanations of agent behavior: Integrating strategy summaries with saliency maps" besch?ftigt sich mit erkl?rbarer Künstlicher Intelligenz.

Dieses Themengebiet untersucht, wie die internen Vorg?nge moderner KI Systeme für Nutzer verst?ndlich gemacht werden k?nnen. In unserer Forschung besch?ftigten wir uns insebesondere mit Agenten, die durch best?rkende Lernalgorithmen trainiert wurden. Diese Agenten lernen anhand von Belohnungen, die sie nach Interaktionen mit ihrer Umgebung erhalten. Hierbei kann es vorkommen, dass die Belohnung, die sich ein solcher best?rkender Lernagent von einer Aktion verspricht, erst einige Zeit nach dieser Aktion eintritt. Deshalb ist das Verhalten best?rkender Lernagenten besonders schwer nachzuvollziehen.

Unser Artikel untersucht zum ersten Mal, wie sich eine Kombination aus globalen Informationen zur Strategie eines best?rkenden Lernagenten mit lokalen Erkl?rungen zu einzelnen Entscheidungen des Agenten auf Nutzer auswirkt. Die durchgeführte Studie ergab, dass die globalen Informationen zur Strategie des Agenten für Nutzer nützlicher waren. Die Ergebnisse zeigen au?erdem neue Wege auf, um die Wirksamkeit der Erkl?rungen zu einzelnen Entscheidungen in Kombination mit globalen Informationen in Zukunft zu verbessern.

Suche