São Paulo – O governo da China divulgou hoje (11) propostas para regulamentar tecnologias de inteligência artificial (IA). O anúncio veio no mesmo dia em que a gigante do e-commerce Alibaba lançou sua ferramenta de chatbot, similar ao ChatGPT, da norte-americana OpenAI. O programa “conversa” com os usuários como se fosse um humano, ao mesmo tempo que tem acesso virtual à vastidão de conteúdos da internet.
Pequim afirma que os aplicativos de inteligência artificial deverão passar por uma “avaliação de segurança” de uma agência reguladora local. O governo chinês afirmou que o objetivo da regulamentação é “o desenvolvimento saudável e a aplicação padronizada da tecnologia de IA generativa”.
Os chineses competem diretamente no “mercado” da tecnologia de ponta com os norte-americanos, que dominam a IA no Ocidente, ao menos por enquanto. Enquanto isso, os demais países articulam mecanismos internos de controle. Na Europa, a primeira medida deve ser a imposição de um aviso da origem “artificial” em todo conteúdo criado por estas ferramentas.
Até mesmo o governo dos Estados Unidos elevou o tom contra os chatbots. A administração do presidente Joe Biden deu 60 dias para que as agências nacionais, em parceria com o Congresso, apresentem ideias de legislações para conter eventuais abusos e externalidades que envolvam a IA. O periódico local The Wall Street Journal divulgou que o Departamento de Comércio do país registrou um pedido para que mecanismos de IA passem por um processo de certificação oficial.
Regulação da IA na Europa
A comunidade europeia também avança na regulação da IA. Após a Itália banir e estudar multas milionárias ao ChatGPT por violar a privacidade dos usuários, Alemanha, França, Irlanda e Espanha estudam medidas similares. Tramita, desde 2018, na Comissão Europeia, uma proposta de regulamentação sobre redes sociais e tecnologias de IA. Contudo, os países não conseguem chegar a um consenso e a matéria carrega milhares de emendas sob apreciação.
Agora, autoridades locais querem apressar regras específicas sobre a IA. A ideia, em um primeiro momento, é obrigar que os conteúdos criados por estas ferramentas contenham um aviso específico. “Em tudo o que é gerado por inteligência artificial, seja texto – já todos conhecem o ChatGPT – ou imagens, haverá a obrigação de notificar que o conteúdo foi criado por inteligência artificial”, explicou o Comissário Europeu para o Mercado Interno, Thierry Breton.
Controvérsias da IA
Entre as principais críticas à IA está a falta de transparência. Os programas trabalham com a gestão de uma base de dados imensa. Através de algoritmos, estes mecanismos organizam estas informações e “aprendem” de acordo com a demanda dos usuários. Esta tecnologia, em resumo, é chamada de deep learning (aprendizado de máquina por redes neurais profundas).
Desta forma, o programa organiza as informações na forma de respostas de uma forma lógica. Não há compromisso com a verdade, muito menos com a ética. Trata-se apenas de um encadeamento lógico de sentenças que leva o mundo a estudar a regulação da IA.
Logo, existem riscos de uso malicioso, como por exemplo, para a criação de fake news, peças difamatórias e ataques sistemáticos contra pessoas, instituições e, por fim, a própria democracia. Estas são algumas das razões que levaram milhares de cientistas, empresários e historiadores a divulgarem uma carta para pedir a suspensão, por no mínimo seis meses, dos testes com tecnologias de IA generativa.
Fonte: Rede Brasil Atual Com informações da agência Reuters
*Foto/Crédito: Imagem de Gerd Altmann / Pixabay (Licenciável – Creative Commons)