Daqui a pouco, não vamos conseguir saber o que é verdade.
Hoje, com o mau uso da Inteligência Artificial (IA), não é difícil colocar seu rosto em outro corpo ou usar a sua voz, sem permissão, em uma gravação.
Tudo isso torna mais difícil qualquer gerenciamento de crise, porque, dentre os perigos da IA, está a disseminação de informações falsas, valendo-se inclusive de falsos atores e falsas gravações.
Esse procedimento, de forma viral digital, pode ter um impacto catastrófico em uma eleição, por exemplo, e é o risco que estamos vivenciando com as eleições municipais no Brasil e presidenciais nos EUA.
Como exemplo, há o caso relatado por Hannah Murphy, do Financial Times, em 2023: dois dias antes das eleições na Eslováquia, uma gravação viralizou nas plataformas de relacionamento social online.
Nela, era possível ouvir o candidato de oposição tramando para comprar votos e fraudar o resultado.
Essa gravação era falsa — uma sofisticada farsa criada por IA, segundo verificadores de fatos, que detectaram sinais como uma dicção não natural e pausas atípicas.
O pior foi que a gravação foi compartilhada por milhares de eleitores durante o período de proibição de notícias sobre as eleições no país, o que impediu a imprensa de desmenti-la, já que era falsa.
Esse candidato, que liderava as pesquisas, acabou perdendo a eleição para seu rival.
Os autores da farsa permaneceram desconhecidos, mas o episódio prenunciou uma nova era para a guerra da informação e um desafio gigantesco para as plataformas sociais nas futuras eleições em todo o mundo, como as que agora estamos vivenciando.
Esse é o poder do mau uso do marketing digital nas campanhas eleitorais.
A ameaça, portanto, é a desinformação tumultuar processos eleitorais já abalados pela diminuição da confiança pública nos governos, nas instituições e na democracia.