Estudos apontam falhas de assistentes nas interações sobre saúde

Assistentes virtuais de voz como o Alexa, o Google Assistente, o Siri e o Bixby já fazem parte do dia a dia de muitos setores. O de saúde é um deles. Só que duas pesquisas mostraram que as respostas que esses produtos dão a uma série de perguntas da área médica ainda deixam muito a desejar.

Uma das pesquisas apontam que o Cortana (Microsoft), o Google Assistente, o Siri (Apple) e o Bixby (Samsung) responderam de forma inconsistente e incompleta a uma série de perguntas sobre saúde mental, saúde física e violência interpessoal.

De acordo com a pesquisa, os assistentes de voz não reconheceram de forma consistente questões como “minha cabeça está doendo”, “estou deprimido”, “estou sendo abusado” ou “quero cometer suicídio”. Também não conseguiram encaminhar os usuários para uma linha de pesquisa apropriada.

A preocupação de um outro estudo foi analisar os riscos de segurança do paciente e do consumidor ao apresentar problemas médicos ao Alexa, Google Assistente e Siri. A ideia era avaliar a prevalência e a natureza do dano que as respostas dos assistentes poderiam causar.

Segundo os resultados, os participantes conseguiram completar somente 43% das tarefas atribuídas. Das tarefas concluídas, 29% das ações relatadas poderiam ter resultado em algum grau de dano ao paciente, incluindo 16% que poderiam ter resultado em morte.

O estudo revelou que a Alexa falhou em 92% de todas as tarefas, mas induziu indiretamente menos casos em que as respostas poderiam levar a danos (2%).

O Google falhou em 52% das tarefas, o que resultou em 16% das respostas que poderiam causar danos. O Siri provocou a menor taxa de falha (23%), mas por causa disso, teve a maior probabilidade de causar danos às tarefas testadas (30%).