Conexões Perigosas: Inteligência Artificial, Emoções Humanas e Riscos

Por Silvana de Oliveira  Perita Judicial, Grafotécnica, Especialista em Provas Digitais e Investigação Forense

A presença da inteligência artificial (IA) no cotidiano deixou de ser uma previsão futurista e se tornou realidade concreta. Ferramentas como chatbots conversacionais, capazes de interagir de forma natural e empática, já ocupam espaço nas relações pessoais, especialmente entre jovens e adolescentes. Contudo, essa nova forma de interação levanta questionamentos delicados sobre saúde mental, responsabilidade das empresas de tecnologia e proteção de pessoas em situação de vulnerabilidade.

Recentemente, casos trágicos trouxeram o tema ao centro dos debates. Nos Estados Unidos, a família de um adolescente de 16 anos entrou com uma ação judicial contra a OpenAI, alegando que conversas mantidas pelo filho com um chatbot contribuíram para o agravamento de seu sofrimento emocional e, posteriormente, para sua morte por suicídio. Segundo os pais, a IA não apenas deixou de contestar os pensamentos suicidas do jovem, como teria oferecido instruções e até auxiliado na redação de cartas de despedida.

Outro episódio semelhante envolveu uma consultora em saúde de 29 anos, cuja mãe encontrou registros de interações intensas com uma inteligência artificial após o falecimento da filha. Em ambos os casos, a dor familiar transformou-se em questionamento jurídico: até que ponto uma empresa de tecnologia pode ser responsabilizada quando sua ferramenta influencia negativamente o comportamento de um usuário em crise emocional?

O risco da conexão emocional com máquinas

A facilidade com que chatbots oferecem respostas rápidas, acolhedoras e sem julgamento cria a sensação de proximidade. Muitos adolescentes chegam a nomear os sistemas, atribuindo a eles características humanas e, em alguns casos, desenvolvendo vínculos afetivos. Isso pode parecer inofensivo, mas quando substitui relações sociais reais ou serve como espaço para desabafos profundos, abre-se um campo perigoso de dependência emocional.

Profissionais de saúde mental alertam: quando uma pessoa em sofrimento não encontra contraposição em suas ideias suicidas, aumenta a chance de concretizar o ato. Diferentemente de familiares, amigos ou terapeutas, a IA não possui discernimento emocional pleno nem capacidade de intervenção humana efetiva.

O desafio da regulação

Nos Estados Unidos, iniciativas como o Tech Justice Law Project defendem que ferramentas de IA sejam submetidas a protocolos de segurança semelhantes aos aplicados a produtos de consumo. Assim como brinquedos ou veículos inseguros não podem ser comercializados, tecnologias que apresentam riscos à saúde mental deveriam ter mecanismos de proteção obrigatórios — como bloqueio automático em conversas sobre suicídio ou direcionamento imediato para linhas de apoio humano.

No Brasil, ainda não existe legislação específica para chatbots. Atualmente, as ferramentas se submetem ao Marco Civil da Internet e à Lei Geral de Proteção de Dados (LGPD), que regulam o uso de dados e a responsabilidade das plataformas. Entretanto, especialistas apontam que, em casos extremos, pode-se cogitar a responsabilização civil e até criminal das empresas, sob acusações de auxílio ou instigação ao suicídio.

Caminhos para prevenção

A tecnologia, por sua natureza, não retrocede. O desafio, portanto, não está em restringir o avanço da inteligência artificial, mas em garantir seu uso ético e seguro. Algumas medidas já são discutidas:

  • Verificação de idade dos usuários, para evitar acesso precoce e não supervisionado.
  • Filtros automáticos que bloqueiem conteúdos relacionados a automutilação e suicídio.
  • Protocolos de crise, com redirecionamento para atendimento humano imediato.
  • Educação digital para pais, professores e jovens, a fim de promover o uso consciente e responsável.

Mais do que confiar exclusivamente na tecnologia, especialistas reforçam a importância da proximidade humana. Crianças e adolescentes em desenvolvimento necessitam de vínculos reais, diálogo aberto e acompanhamento constante. A IA pode até simular empatia, mas jamais substituirá o acolhimento de uma relação humana verdadeira.

O debate em torno desses casos não deve ser visto como oposição à tecnologia, mas como um chamado à responsabilidade. Empresas precisam reconhecer os riscos de seus produtos e desenvolver medidas preventivas. Famílias e escolas devem estar atentas aos sinais de isolamento e dependência digital. E a sociedade, como um todo, precisa construir mecanismos de regulação que acompanhem a velocidade do avanço tecnológico. Afinal, se não permitimos que brinquedos ou carros inseguros cheguem às prateleiras, por que aceitaríamos que inteligências artificiais capazes de influenciar emoções humanas profundas circulem sem limites claros de proteção?