De todos os riscos relacionados à inteligência artificial, o que o ser humano mais teme é que ela comece a expressar emoções como um ser humano. Muitas pessoas ironizam, afirmando que isso nunca acontecerá. No entanto, uma geração que cresceu imersa no mundo digital confia tanto nessa tecnologia que está revelando seus segredos mais íntimos a ela.
Como uma máquina pode compreender emoções sem realmente senti-las?
Quando achamos que já vimos de tudo, a vida continua a nos surpreender. Atualmente, há uma tendência crescente de se utilizar a inteligência artificial generativa como um “confessionário” e fonte de aconselhamento. Em outras palavras, a IA se transformou no “psicólogo” de uma legião de pessoas na internet. A situação se tornou tão séria que uma ONG, com mais de 15 anos de atuação e grande impacto na educação digital de crianças e jovens, incluiu o problema do aconselhamento terapêutico automatizado em sua pauta.
Essa organização é a Associação pela Saúde Emocional de Crianças e Adolescentes (Asec), que atua em diversos países e municípios. Uma das coordenadoras do movimento, Tayna Gomes, nos explica quais são os objetivos da entidade e suas principais preocupações.
Leia também
“A gente tem hoje Associação pela Saúde Emocional de Crianças e Adolescentes, que trabalha produzindo impacto para outros grupos , e a gente tem hoje a comunidade para jovens embaixadores pela saúde mental, que vem trazendo uma formação para dez embaixadores de regiões diferentes do Brasil, que passam pela saúde mental, trazendo temáticas neste contexto de maneira referenciada, e que produzir nesses jovens essa formação para que eles possam replicar no seu território, através de rodas de conversa, que utilizem a nossa metodologia, que é a do caixa de ferramentas, que traz estratégias e outras perspectivas para que a juventude possa lidar com os seus problemas, as suas dificuldades enfrentando isso de maneira mais saudável, para si e para a sua existência.”
Vivemos em uma era na qual as ferramentas digitais, como a inteligência artificial, assumem papéis inesperados, especialmente quando o assunto é saúde mental e apoio emocional. Essas ferramentas existem e, embora tecnicamente avançadas, muitas vezes refletem uma realidade desconcertante: a falta de uma rede de apoio real e a desconexão das pessoas com seu ambiente e relacionamentos verdadeiros.
PublicidadeAo confiarmos em máquinas para ouvir nossos segredos e oferecer conselhos, nos afastamos daquilo que nos torna humanos: a capacidade de nos conectar profundamente com outras pessoas, de compartilhar nossas emoções e desafios com amigos, familiares e profissionais. Essa tendência de recorrer a tecnologias, como assistentes virtuais e IAs, revela a ausência de apoio humano genuíno e acessível.
Em contrapartida, estratégias simples, mas poderosas, poderiam fazer toda a diferença. “Literalmente pensar que, se tivéssemos várias ferramentas que chamamos de estratégias”, diz Tayna Gomes, coordenadora da Asec, tais como “encontrar um amigo em quem possamos confiar e desabafar, buscar um serviço de saúde onde possamos nos sentir acolhidos, tomar um banho em momentos de estresse, ou utilizar a escrita para compreender melhor nossos sentimentos, são algumas das soluções que apresentamos aos jovens.” Desde então, a Asec aplica o instrumental “Caixa de Ferramentas”, de apoio aos jovens.
Entre 2018 e 2019, com a parceria do Grupo de Estudos e Pesquisa em Suicídio e Prevenção (GEPeSP) da UERJ, desenvolveu e aplicou o piloto do “Programa Inovador”, da EscolaQPrevine, que tem seu foco na prevenção de suicídio em escolas públicas.
Até 2020 foram mais de 354 mil crianças e adolescentes beneficiados, assim como seus 8,5 mil educadores e 8,mil familiares de mais de 105 municípios do Brasil.
Essas estratégias não dependem de algoritmos ou linhas de código, mas de algo muito mais essencial: o poder das interações humanas, do cuidado próprio e da autoexpressão.
“Os riscos mais frequentes incluem o autodiagnóstico realizado a partir do contato com essas plataformas, que nem sempre são gerenciadas por profissionais da área, e o uso da inteligência artificial. Não temos clareza sobre o que está sendo compartilhado com jovens e adolescentes, que são grupos mais vulneráveis. Muitas vezes, esses jovens têm acesso aos aparelhos, às plataformas e às redes sociais, mas não têm noção do que é cidadania digital, quais são os riscos e limites, as implicações, como proteger seus dados, e como se relacionar de maneira mais saudável com esse ambiente digital.”
E por que as crianças estão cada vez mais ansiosas, deprimidas e até mesmo colocando em risco a própria vida?
A juíza Vanessa Cavalieri, da Vara da Infância e da Juventude do RJ, relata que as crianças estão hoje, em razão da internet, diretamente expostas a cyberbullying, onde são humilhadas, ridicularizadas, agredidas, têm a sua intimidade exposta por filmagens não autorizadas e publicadas por gangues de fofocas na internet e um novo tipo de pornografia infantil, de casais que são filmados em festas e essas imagens circulam na internet, além de estupro de vulnerável, em que jovens reproduzem cenas a quem eles tem acesso nos sites de pornografia online. A juíza julga casos de crime cometidos por jovens de 12 a 18 anos. Os jovens acabam sofrendo de ataque de ansiedade, depressão, transtorno alimentar e ideação suicida. A live está disponível no perfil do pediatra Daniel Becker, referência sobre o uso de celular na infância.
Agora, temos como novidade as páginas de “explana” que são perfis fechados só com alunos em que o objetivo é praticar o crime de cyberbullying.
Há também o problema do conteúdo tóxico nas redes sociais, como plataformas como Discord, onde muitos crimes são cometidos. Uma das questões centrais é que as plataformas digitais não são acessíveis; seu funcionamento é um mistério. Não sabemos para onde vão os dados, como são armazenados ou tratados, o que contribui para vivermos em uma sociedade cada vez mais vigiada. E se uma IA leva uma criança a cometer um ato extremo ou incita comportamentos autodestrutivos, como ficamos?
Por isso, precisamos de duas coisas: estudar o comportamento das plataformas e seus algoritmos, e regular esses algoritmos para que essas perguntas não permaneçam sem resposta por muito mais tempo, como explica a psicóloga Tayná Gomes.
“Essa é uma pesquisa que eu faço. A gente precisa entender qual a plataforma que a gente está usando como referência aqui, se ela tem o cuidado com as pessoas, para onde essas informações estão sendo encaminhadas como ela funciona. A gente observa que existe uma regulamentação que está em tramitação que se preocupa em entender os impactos, da inteligência artificial, sobre tudo, pode ter na vidas pessoal, entender cada plataforma em si, mas no geral a gente compreende que é importante que a gente não demonize as redes sociais e as plataformas e a própria inteligência artificial sendo utilizada como recurso terapêutico, mas encontre a regulamentação que possa observar como posso amenizar esse impacto entre a pessoa com a tecnologia, a plataforma, a rede social e afins.”
Diversos projetos de lei estão em tramitação no Brasil para garantir a transparência e o uso ético dos algoritmos. O PL 2338/2023 (Marco Legal da IA) propõe diretrizes éticas para a IA, incluindo a explicabilidade e auditoria dos algoritmos. Já a LGPD (Lei nº 13.709/2018) estabelece o direito dos cidadãos de saber quando seus dados são tratados por sistemas automatizados e exige transparência na coleta e tratamento desses dados e autorização especial no caso de dados de crianças e adolescentes. O PL 2630 exige dever de cuidado e responsabilidade no uso das redes sociais, bem como o fim do anonimato.
A regulação das redes sociais é urgente e pode salvar vidas. Não é a inteligência artificial que é o problema, mas sim os usos indevidos dessa poderosa ferramenta de informação e comunicação.
Para mais debate, acesse as nossas redes sociais e deixe a sua opinião. Você também pode enviar a sua sugestão de tema, crítica ou sugestão para o WhatsApp da Rádio Câmara (61) 99978-9080 ou para o e-mail papodefuturo@camara.leg.br.
O texto acima expressa a visão de quem o assina, não necessariamente do Congresso em Foco. Se você quer publicar algo sobre o mesmo tema, mas com um diferente ponto de vista, envie sua sugestão de texto para redacao@congressoemfoco.com.br.