O Google implementará no chatbot Gemini a função de monitoramento do estado mental

O Google implementará no chatbot Gemini a função de monitoramento do estado mental

12 hardware

O Google reforça o apoio à saúde mental no chatbot Gemini

A empresa Google anunciou planos de adicionar ao seu novo chatbot de IA Gemini recursos voltados a proteger os usuários contra crises emocionais e autoagressões. A decisão foi tomada após concorrentes, incluindo a OpenAI, enfrentarem processos por suposto dano causado pelos seus bots.

O que há de novo no Gemini
FuncionalidadeDescriçãoRedirecionamento para linha direta Ao detectar sinais de pensamentos suicidas ou autoagressão, o bot automaticamente sugere entrar em contato com suporte de crise. Módulo “Apoio Disponível” Em diálogos sobre saúde mental aparece uma seção dedicada onde o usuário pode obter recomendações e recursos de autocuidado. Alterações no design A interface é adaptada para reduzir o risco de provocar autoagressão (por exemplo, estímulos visuais foram removidos).

Por que o Google está fazendo isso
- Reclamações judiciais contra concorrentes: a OpenAI e outras empresas já responderam às acusações de causar dano aos usuários.
- Riscos para os usuários: nos últimos anos observou-se um aumento de casos em que pessoas desenvolvem relações obsessivas com bots de IA, o que pode levar à psicopatologia ou até a assassinatos e suicídios.
- Observações nos EUA: o Congresso está estudando as ameaças que chatbots podem representar para crianças e adolescentes.

Exemplo de processo judicial
Em março, a família do americano falecido aos 36 anos entrou com uma ação contra o Google. Eles alegaram que a interação do homem com o Gemini acompanhou “quatro dias de imersão em atos violentos” e levou ao suicídio. O Google afirmou que o bot direcionou repetidamente o usuário para a linha de crise, mas se comprometeu a reforçar as medidas de segurança.

Como o Google reage às informações falsas
Alguns usuários relataram que os chatbots forneciam informações incorretas, incentivando ações perigosas. Em resposta, o Google treinou o Gemini:
- Não apoiar crenças falsas: o bot recusa confirmar afirmações erradas.
- Destacar a diferença entre experiência subjetiva e fatos objetivos: se necessário, o bot indica suavemente a falta de veracidade das informações.

Assim, o Google busca tornar o Gemini uma ferramenta mais segura, protegendo a saúde mental dos usuários contra os riscos potenciais associados aos chatbots de IA.

Comentários (0)

Compartilhe sua opinião — por favor, seja educado e mantenha-se no tema.

Ainda não há comentários. Deixe um comentário e compartilhe sua opinião!

Para deixar um comentário, faça login.

Faça login para comentar