Inteligência Artificial não é mais ficção científica e suas consequências, tanto para o bem quanto para o mal, já se fazem presentes, com os seus claros benefícios, mas também com seus usos indevidos.
Portanto, a regulamentação da IA é essencial.
Sempre que surgem novas tecnologias, duas perguntas permeiam o noticiário:
- Como podem deflagrar crises, em função de seus riscos inerentes?
- Como nos beneficiarmos delas para solução de crises?
Exemplo clássico é o da tecnologia nuclear: ela nos traz à memória seu uso na destruição de Hiroshima e Nagazaki, mas, por outro lado, a utilizamos no fornecimento de energia e no diagnóstico e tratamento de câncer.
Como foi uma tecnologia desenvolvida por governos, eles mesmos, diante da tragédia ocorrida, resolveram criar controles coletivos para refrear a proliferação.
Já no caso da IA, ela foi criada por empresas privadas, competitivas e avessas a regulações e, diferentemente da nuclear, com aplicação em todos os campos.
Em ambos os casos, a tecnologia pode ser arma ou ferramenta e, por isso, há necessidade de se ter uma regulação de forma a se ter as mesmas regras para todos os países e empresas. É um desafio universal!
Avanços e riscos da IA
Como estamos cada vez mais dependentes da tecnologia, isso aumenta a exposição a crises quando algo dá errado.
A IA, como toda tecnologia com poder de transformar o mundo, pode ser tão perigosa quanto útil à humanidade.
Portanto, impactará todas as áreas e profissões, o que exigirá preparo para enfrentar o futuro de seu emprego.
Muito importante, a adoção desigual da IA aprofundará ainda mais a divisão entre ricos e pobres, agravando a desigualdade social e acentuando as tensões sociais. Como tornar igualitário o acesso à IA numa sociedade que já é desigual?
Mas não há só visões negativas pela utilização da IA.
Por exemplo, pela capacidade da IA de análise de dados e metadados, seu emprego vem se tornando mandatório para planificar a Economia e evitar crises pelos governos.
Em especial, a IA tem se destacado na Saúde, dando maior precisão em laboratórios, diagnósticos médicos, análise de imagens médicas etc.
Portanto, a IA nos acena com inúmeros avanços, mas seus riscos não são desprezíveis. Daí a necessidade de regular a IA envolvendo coalizões de governos e de empresas.
A evolução da IA tem sido tão rápida que os governos não têm conseguido acompanhá-las para estabelecer os parâmetros e diretrizes que se fazem necessários visando o bem de todos.
Os governos conseguirão ter controle sobre a IA? Haverá mecanismos de regulamentação, com aspectos éticos, para garantir que a IA seja utilizada em benefício de toda a sociedade?
Pela importância e pela urgência, algumas regulações começam a surgir, como a Lei de Inteligência Artificial europeia (EU AI Act), de junho/2023, e um projeto de lei em nosso Senado, que é um marco regulatório com cinco eixos: princípios, direitos dos afetados, classificação de riscos, obrigações e requisitos de governança.
Portanto, os avanços da Inteligência Artificial nos últimos anos fizeram com que discussões éticas relativas ao uso dessa tecnologia chegassem ao debate público, surgindo também uma pressão e um interesse na sua regulamentação.
Mais recentemente, em outubro, o presidente dos EUA assinou a Executive Order on Safe, Secure and Trustworthy Artificial Intelligence. O objetivo desse documento é uma tentativa de alinhar o governo dos EUA e suas agências federais tanto na utilização eficiente e ética das Inteligências Artificiais, quanto no seu controle, promoção e regulação.
Enfim, a IA é inevitável e caberá à sua regulação definir como obter o que há de melhor e como evitar o que há de pior em seu emprego.