O Google implementará no chatbot Gemini a função de monitoramento do estado mental
O Google reforça o apoio à saúde mental no chatbot Gemini
A empresa Google anunciou planos de adicionar ao seu novo chatbot de IA Gemini recursos voltados a proteger os usuários contra crises emocionais e autoagressões. A decisão foi tomada após concorrentes, incluindo a OpenAI, enfrentarem processos por suposto dano causado pelos seus bots.
O que há de novo no Gemini
FuncionalidadeDescriçãoRedirecionamento para linha direta Ao detectar sinais de pensamentos suicidas ou autoagressão, o bot automaticamente sugere entrar em contato com suporte de crise. Módulo “Apoio Disponível” Em diálogos sobre saúde mental aparece uma seção dedicada onde o usuário pode obter recomendações e recursos de autocuidado. Alterações no design A interface é adaptada para reduzir o risco de provocar autoagressão (por exemplo, estímulos visuais foram removidos).
Por que o Google está fazendo isso
- Reclamações judiciais contra concorrentes: a OpenAI e outras empresas já responderam às acusações de causar dano aos usuários.
- Riscos para os usuários: nos últimos anos observou-se um aumento de casos em que pessoas desenvolvem relações obsessivas com bots de IA, o que pode levar à psicopatologia ou até a assassinatos e suicídios.
- Observações nos EUA: o Congresso está estudando as ameaças que chatbots podem representar para crianças e adolescentes.
Exemplo de processo judicial
Em março, a família do americano falecido aos 36 anos entrou com uma ação contra o Google. Eles alegaram que a interação do homem com o Gemini acompanhou “quatro dias de imersão em atos violentos” e levou ao suicídio. O Google afirmou que o bot direcionou repetidamente o usuário para a linha de crise, mas se comprometeu a reforçar as medidas de segurança.
Como o Google reage às informações falsas
Alguns usuários relataram que os chatbots forneciam informações incorretas, incentivando ações perigosas. Em resposta, o Google treinou o Gemini:
- Não apoiar crenças falsas: o bot recusa confirmar afirmações erradas.
- Destacar a diferença entre experiência subjetiva e fatos objetivos: se necessário, o bot indica suavemente a falta de veracidade das informações.
Assim, o Google busca tornar o Gemini uma ferramenta mais segura, protegendo a saúde mental dos usuários contra os riscos potenciais associados aos chatbots de IA.
Comentários (0)
Compartilhe sua opinião — por favor, seja educado e mantenha-se no tema.
Faça login para comentar