Kontinuální plánování pro zajištění vzájemného porozumění v situovaném dialogu
diplomová práce (OBHÁJENO)
![Náhled dokumentu](/bitstream/handle/20.500.11956/31136/thumbnail.png?sequence=7&isAllowed=y)
Zobrazit/ otevřít
Trvalý odkaz
http://hdl.handle.net/20.500.11956/31136Identifikátory
SIS: 63023
Kolekce
- Kvalifikační práce [11264]
Autor
Vedoucí práce
Oponent práce
Hajičová, Eva
Fakulta / součást
Matematicko-fyzikální fakulta
Obor
Matematická lingvistika
Katedra / ústav / klinika
Ústav formální a aplikované lingvistiky
Datum obhajoby
10. 5. 2010
Nakladatel
Univerzita Karlova, Matematicko-fyzikální fakultaJazyk
Angličtina
Známka
Výborně
Práce se zabývá problémem zajištění vzájemného porozumění (angl. common ground) v situovaném dialogu mezi člověkem a robotem. Toto vzájemné porozumění je nezbytné pro každou společnou činnost a jeho dosažení je tedy ústředním problémem v jakékoliv interakci. Práce staví na modelu dialogu představeném Thomasonem aj., který nahlží na dialog jako na jeden aspekt interakce v kontextu širší spolupráce a používá abdukci jako mód uvažování. V našem případě je abdukce prováděna nad abstraktními strukturami zachycujícími představy agentů (tj. účastníků dialogu) podobně jako v multi-agentovém plánování. Těmto strukturám je přiřazena sémantika v podobě překladu do modální logiky, která je schopna formálně zachytit vzájemné porozumění. Pomocí této sémantiky pak práce ukazuje, jak lze vzájemného porozumění budovat a udržet. Mechanismus byl implementován v kognitivní architektuře robota ve scénáři, kde se robot učí model vizuální scény ve spolupráci s lidským učitelem.
The work investigates the problem of grounding-adding to common ground - in situated human-robot dialogues. Common ground, a special kind of mutual understanding among dialogue parties, is essential for any joint activity and as such is central to any interaction. In our approach, we treat dialogue just as a part of a wider collaborative activity, extending Thomason et al.'s approach to dialogue modelling based on abductive reasoning. Our system performs abduction over agents' (i.e. dialogue participants) beliefs, similarly as in the related field of multi-agent planning. We define beliefs as relational structures that are assigned a modal-logical semantics and show how common ground is achieved and maintained using these structures. Finally, we present an implementation of the system in a cognitive architecture of a robot in a scenario where the robot learns a correct model of a visual scene in a collaboration with a human tutor.