*Joelson Dias e Ana Clara Rocha
A influência da inteligência artificial (IA) nas eleições globais tem crescido exponencialmente. A capacidade da IA de analisar grandes volumes de dados em tempo real tem o potencial de transformar a maneira como as campanhas são conduzidas e como os eleitores recebem e percebem informações. Em um artigo do The Economist, intitulado “The world wants to regulate AI, but does not quite know how”, é destacado o crescente desejo global de regular a IA, mas a incerteza sobre como fazê-lo efetivamente.
Nesse contexto, a Ordem Executiva sobre o Desenvolvimento e Uso Seguros, Protegidos e Confiáveis da Inteligência Artificial decretada pelo presidente Joe Biden, em 30/10/2023, e o Código de Conduta Internacional do Processo de Hiroshima para Sistemas Avançados de IA firmado pelo G7, surgem como faróis de orientação para a caminhada regulatória da IA mundialmente.
Ademais, a BBC explorou a temática a segurança da IA em um artigo intitulado “Can Sunak ‘s big summit save us from AI nightmare?”, que aborda a Cúpula de Segurança da IA. Esta conferência, realizada entre os dias 01/11/2023 e 02/11/2023, no Reino Unido, evidencia a importância e a urgência em tratar dos desafios e oportunidades que a IA representa no cenário eleitoral, conforme demonstrado pela ampla cobertura midiática do tema.
Leia também
A inteligência artificial (IA) oferece uma série de oportunidades no contexto eleitoral. Ela viabiliza uma segmentação mais acurada dos eleitores, permitindo que as campanhas eleitorais direcionem mensagens personalizadas para grupos demográficos específicos, promovendo assim uma conexão mais estreita entre os eleitores e seus candidatos. A Reuters destacou em um de seus artigos como as campanhas políticas estão usando análises de dados para identificar e alcançar eleitores indecisos em áreas específicas.
Nesse ínterim, a análise em tempo real do sentimento do eleitor, realizada por algoritmos de IA, emerge como uma ferramenta valiosa, auxiliando as campanhas a calibrarem suas estratégias conforme as reações do eleitorado. Uma reportagem da BBC discutiu como a análise de sentimentos foi empregada durante as eleições presidenciais dos EUA em 2020 para monitorar, em tempo real, as reações dos eleitores aos debates.
Além disso, a IA tem um potencial significativo no combate à desinformação, sendo capaz de detectar e sinalizar notícias falsas. Em um esforço para combater a disseminação de informações falsas, várias plataformas de mídia social implementaram sistemas de verificação de fatos alimentados por IA, que identificam e marcam conteúdo enganoso.
Outrossim, o trabalho realizado pelos países, explicitado no decreto americano Executive Order of Artificial Intelligence, busca não somente mitigar ou reduzir os riscos propostos pela IA, mas também beneficiar-se de forma segura e responsável das inovações proporcionadas pelas tecnologias da informação. Além disso, ressalta a importância da multissetorialidade ao incluir todas as partes interessadas nas discussões regulatórias.
A IA, apesar de suas inúmeras vantagens, também apresenta riscos significativos no contexto eleitoral. Um dos riscos mais discutidos é a capacidade de criar informações falsas ou enganosas, como deepfakes. Estas são representações realistas geradas por computador de pessoas reais, fazendo ou dizendo coisas que nunca fizeram ou disseram. O “The Guardian” destacou em um artigo como os deepfakes podem ser usados para espalhar desinformação e influenciar a opinião pública durante as eleições.
A segmentação precisa, embora possa ser benéfica para direcionar mensagens, também pode ser usada para manipular sentimentos e opiniões, levando a uma polarização ainda maior da sociedade. A “Reuter” discutiu como a segmentação de anúncios baseada em IA pode criar “bolhas de filtro”, onde os eleitores só veem informações que reforçam suas crenças existentes.
Esta polarização pode acarretar na criação de grupos que fomentam discursos de ódio, representando ameaças à democracia e à liberdade de expressão. O recente debate promovido pelo “Oversight Board” relata incidentes ocorridos durante as campanhas eleitorais na Grécia, em junho de 2023. Na ocasião, a Meta removeu conteúdos de duas publicações que violavam os padrões comunitários relativos a organizações e indivíduos criminosos no Facebook. Posteriormente, houve uma atualização nas diretrizes da comunidade para mitigar riscos futuros.
Nesse contexto, a manipulação virtual de imagens e vídeos com o intuito de alterar percepções públicas ultrapassou os limites europeus e atingiu os Estados Unidos no incidente que envolveu o presidente Joe Biden em 2023. Um vídeo no qual ele colava um adesivo “I voted” em sua neta foi manipulado para incluir músicas e frases pejorativas, sendo posteriormente divulgado em plataformas digitais com o objetivo de deturpar sua imagem política e a de seus eleitores. Outro aspecto que merece destaque é a responsabilidade das plataformas digitais, neste caso, a Meta, ao permitir a permanência do conteúdo manipulado e em relação às suas diretrizes sobre desinformação no contexto eleitoral.
Além disso, a IA pode ser usada para realizar ataques cibernéticos sofisticados, comprometendo a integridade das eleições. Em um testemunho no Senado, foi discutido o potencial de modelos de IA em facilitar ataques cibernéticos em grande escala, destacando a necessidade de regulamentações mais rigorosas.
Com a evolução contínua das IA’s, espera-se que as eleições de 2024 vejam um uso ainda mais extenso dessas tecnologias. A segmentação se tornará mais avançada, os chatbots proporcionarão interações mais naturais e personalizadas com os eleitores, havendo uma maior dependência de modelos de IA para previsões e análises.
Ressaltando a personalização da experiência do usuário e sua influência no cenário eleitoral, o livro “Big Tech: A ascensão dos dados e a morte da política”, de Evgeny Morozov, aborda um estudo realizado com mais de 60 milhões de usuários do Facebook. Esses usuários foram divididos em dois grupos: aqueles que receberam mensagens de incentivo à participação eleitoral de maneira não personalizada e aqueles que as receberam de maneira personalizada. O estudo revelou que o grupo que recebeu mensagens personalizadas teve um resultado positivo significativamente maior, com quatro vezes mais pessoas votando após a experiência individualizada.
É evidente que a política baseada no processamento de big data gera preocupações acerca da privacidade dos dados dos usuários. Com a inteligência artificial sendo utilizada para coletar e analisar grandes volumes de informações sobre os eleitores, surgem questionamentos sobre como esses dados são utilizados, armazenados e protegidos. A BBC também abordou as implicações da inteligência artificial na privacidade dos dados, ressaltando os desafios de proteger os dados dos usuários em um mundo cada vez mais digital.
A urgência em lidar com essas tecnologias abrange diversos países, como o Brasil, que recentemente instituiu a Comissão Temporária Interna sobre Inteligência Artificial no Senado Brasileiro para debater os impactos da sua aplicação. A IA tem o potencial de revolucionar o cenário eleitoral, oferecendo oportunidades para otimizar campanhas e aprimorar as interações com os eleitores. No entanto, é imperativo abordar os riscos associados para garantir que a tecnologia seja usada de maneira que beneficie a democracia e preserve a integridade do processo eleitoral.
Assim, esta semana representa um marco para o futuro da IA. Os Estados Unidos buscam o pioneirismo, com a Ordem Executiva que viabilizará a criação de agências regulatórias em diversos setores da sociedade. Destaca-se também a participação de Kamala Harris na “AI Safety Summit”, Reino Unido, cujo o foco principal da cúpula é fomentar debates sobre segurança global, riscos, potenciais, formulação de políticas nacionais, educação e cooperação entre as diversas partes interessadas. Isso tudo com intuito de planejar de forma responsável os melhores caminhos para uma transformação positiva da IA para as próximas gerações.
*Joelson Dias é advogado, sócio do escritório Barbosa e Dias Advogados Associados, Brasília. Ex-ministro substituto do Tribunal Superior Eleitoral (TSE). Mestre em Direito pela Universidade de Harvard. Membro fundador do ICON – Instituto de Estudos Jurídicos e Diálogos Constitucionais. Representante do Conselho Federal da OAB no Conselho Nacional dos Direitos da Pessoa com Deficiência (Conade). Membro da Comissão Nacional dos Direitos das Pessoas com Deficiência do Conselho Federal da OAB. Membro fundador da Academia Brasileira de Direito Eleitoral e Político (Abradep).
*Ana Clara Rocha é estagiária do escritório Barbosa e Dias Advogados Associados, Brasília. Graduanda em Direito pela Universidade Estadual da Paraíba(UEPB). Membro do Laboratório de Inovação e Direitos Digitais da UFBA.
Referências bibliográficas:
The Economist – The world wants to regulate AI, but does not quite knowhow(https://www.economist.com/business/2023/10/24/the-world-wants-to-regulate-ai-but-does-not-quite-know-how)
Hiroshima Process International Code of Conduct for Advanced AI Systemshttps://digital-strategy.ec.europa.eu/en/library/hiroshima-process-international-code-conduct-advanced-ai-systems
BBC News – Can Sunak’s big summit save us from AI nightmare?(https://www.bbc.com/news/technology)
Reuters – How data analytics is changing political campaigns](https://www.reuters.com/technology/)
BBC News – Real-time sentiment analysis during the 2020 US Presidential Debates](https://www.bbc.com/news/technology)
TechCrunch – Social media platforms deploy AI for fact-checking](https://techcrunch.com/)
The Guardian – The rise of deepfakes and the risks to democracy(https://www.theguardian.com/technology/artificial-intelligence-ai)
Reuters – The dangers of AI-based ad targeting in elections(https://www.reuters.com/technology/)
Senate Testimony – The potential of AI in cyber warfare(https://www.senate.gov/)
BBC – Can Sunak’s big summit save us from AI nightmare?(https://www.bbc.com/news/technology)
BBC – The dark side of touch-screen tipping(https://www.bbc.com/news/technology)