Pode um simples olhar de IA criar uma impressão de comunicação?
Equipa internacional de investigadores realizou estudo inovador sobre comunicação de humanos com agentes artificiais. Os resultados sugerem que a interação com a tecnologia depende tanto dos sinais exibidos como das expectativas humanas.
Publicado a Dec 9, 2025
A comunicação com agentes artificiais, como personagens virtuais e robôs sociais, está a tornar-se cada vez mais presente em áreas como a saúde, educação e serviços. Um dos sinais mais importantes para perceber intenções comunicativas é o olhar, que nos humanos indica atenção e intenção, sendo essencial para processos como a atenção conjunta. Com a crescente integração da inteligência artificial no quotidiano, compreender como interpretamos estes sinais em agentes artificiais é fundamental para melhorar a interação entre humanos e tecnologia.
Foi com este objetivo que uma equipa internacional, liderada por Friederike Charlotte Hechler e Emmanuele Tidoni, realizou um estudo inovador. Num paradigma semi-interativo online, 160 participantes observaram um agente virtual que alternava o olhar entre diferentes objetos. Em cada situação, os investigadores manipularam dois fatores: se o agente fazia contacto visual e se repetia o olhar para o mesmo objeto. Os participantes tinham de decidir se “davam” um objeto ao agente, interpretando se este estava a pedir ajuda ou apenas a observar. Além disso, os participantes foram informados de que o comportamento do agente era baseado em dados humanos ou gerado por inteligência artificial (IA).
Os resultados confirmaram que o contacto visual é o sinal mais forte de intenção comunicativa, seguido pela repetição do olhar. Quando ambos ocorrem, a probabilidade de os participantes interpretarem o gesto como um pedido de ajuda é superior. Quando o agente repetia olhares para o mesmo objeto sem contacto visual, isso também influenciava as respostas, mas de forma menos clara, funcionando mais como um indício de relevância do objeto do que como um sinal direto de comunicação. Curiosamente, as crenças sobre a origem do comportamento (humano ou IA) tiveram pouco impacto global, mas influenciaram em situações ambíguas. Nestes casos os participantes tendiam a atribuir mais intenção comunicativa se acreditassem que o agente era controlado por humanos.
Estes resultados parecem mostrar que a interação com a tecnologia depende tanto dos sinais exibidos como das expectativas humanas. Este estudo foi publicado na revista científica Scientific reports, no artigo The influence of human agency beliefs on ascribing gaze-signalled communicative intent, no âmbito do projeto de investigação 137/24 - Decoding the motor and physiological dynamics of human-robot interactions, apoiado pela Fundação Bial.
ABSTRACT
Communication with artificial agents, such as virtual characters and social robots, is becoming more prevalent, making it crucial to understand how their behaviours can best support social interaction. Eye gaze is a key communicative behaviour, as it signals attention and intentions. Prior research shows that perceiving an agent as sentient affects how its gaze is interpreted. This study examined how such beliefs affect the interpretation of gaze as a signal of communicative intent. In a semi-interactive online task, 160 participants viewed a virtual agent exhibiting dynamic gaze sequences. Each trial varied whether eye contact occurred and whether the agent looked at the same object twice. Participants judged whether the agent was requesting help or merely inspecting the object. Beliefs about the agent’s sentience (human- or AI-controlled) were also manipulated. Results showed that when gaze cues were ambiguous, participants were more likely to ascribe communicative intent if they believed the agent was human-controlled compared to when they believed the agent was AI-controlled. Subjective ratings also indicated a general preference for human-controlled agents. These findings underscore the influence of user expectations on interpreting gaze in artificial agents.