Uso aberto da Inteligência Artificial é questão ética

por | abr 12, 2023

8 minutos de leitura
Compartilhe:

Jurista italiano especializado em IA defende que ONU crie rapidamente agência dedicada às novas tecnologias, a fim de evitar desequilíbrios globais no acesso a dados

O jurista Giuseppe Corasaniti é o autor de um dos únicos livros italianos sobre Inteligência Artificial, disciplina sob sua responsabilidade na universidade Luiss de Roma. Na obra Tecnologie intelligenti. Rischi e regole (Tecnologias inteligentes. Riscos e regras), lançada em fevereiro deste ano, o especialista frisa a importância das regras éticas e jurídicas sobre o assunto, ao mesmo tempo em que passa longe das previsões apocalípticas.

Em entrevista ao Integridade ESG, Corasaniti criticou a recente decisão da Autoridade Italiana para Proteção de Dados de suspender e bloquear o Chat GPT no país com base na legislação que regulamenta o uso de dados pessoais e o sistema de verificação da idade de menores.

Integrante do comitêitalianoque está desenvolvendo o Librasearch, uma ferramenta de IA parecida com o Chat GPT, com o diferencial de ser totalmente open source e descodificável para uso gratuito, o especialista defende a criação, por parte da ONU, de uma agência especializada em novas tecnologias a fim de regulamentar seu uso com base na ética e no amplo acesso por parte da população mundial.

Integridade ESG — Como o senhor avalia a decisão italiana de suspender o uso do Chat GPT em todo o país desde 31 de março e o risco de multas à Open AI, responsável pelo Chat GPT, no valor de 20 milhões de euros?

Giuseppe Corasaniti — Quando se está só, não costuma ser agradável… A Itália tem uma política de privacy muito rígida. Estamos diante de um problema sério, pois fazemos parte da União Europeia. A empresa que criou o Chat GPT estabeleceu sua representação na Irlanda, um outro Estado. Essa é a primeira vez que um garantidor do regulamento europeu sobre o tratamento de dados pessoais intervém com referência aos usuários italianos. A Itália tomou uma decisão, a meu ver, errada. E não sou o único a pensar assim. Há um racha entre os magistrados italianos sobre o assunto. Uma empresa que oferece serviços digitais em todo o mundo exerce uma liberdade fundamental que nenhum Estado pode suprimir, e a Itália deu um péssimo exemplo de sensibilidade e regulamentação em relação aos serviços digitais. A tutela dos menores de idade, usada como argumento, é inusual, pois todos os serviços similares estão à disposição dos menores, como o TikTok, que é chinês. Repito, essa decisão me parece surreal.

Integridade ESG — Como o senhor analisa as críticas à IA no âmbito da privacidade de dados dos usuários?

Giuseppe Corasaniti — Há um clima de caça às bruxas. O homem, quando vê algo parecido com a magia, como é a IA, porque é uma tecnologia muito avançada, pode agir dessa forma. Cada empresa que trata dados pessoais deve dar aos usuários informações detalhadas sobre o tratamento dos dados, segundo a norma da União Europeia. Mas a IA não trata dados pessoais, de cada utente. No máximo, registra pesquisas. Além disso, existe um controle sobre atividades ilícitas. Eu mesmo consultei o chatGPT, com uma solicitação para me ajudar a construir um vírus informático. Imediatamente a ferramenta me bloqueou. Tais modelos, aparentemente, falam com um espelho mágico, como na fábula da Branca de Neve. Então, devemos ter atenção, pois são instrumentos muito ilusórios, que não fazem outra coisa a não ser usar a internet e dar respostas e receitas com base nisso. Tratam-se, em geral, de respostas muito genéricas.

Integridade ESG — Em sua opinião, quais são as maiores vantagens de ferramentas como o Chat GPT?

Giuseppe Corasaniti — O que o Chat GPT faz muito bem são cálculos e resolver problemas matemáticos complexos e sofisticados. Os informáticos usam a definição dos “papagaios estocásticos”. A estocástica é uma teoria da probabilidade que se aproxima de uma resposta correta com base em indicações presumivelmente verdadeiras. Já usamos essa lógica nos modelos de tradução automática. Mas, às vezes, encontramos dificuldades de compreensão ou mesmo de tradução. Esse é talvez o verdadeiro problema da IA.

Integridade ESG — Na sua opinião, como dever ser regulamentado o uso da IA?

Giuseppe Corasaniti — Existe um regulamento na Europa sobre a IA, no qual se imagina que seja uma espécie de serviço, mas na verdade trata-se de uma tecnologia nova, que deve ser regulamentada de modo rígido, mas de acordo com cada atividade, singularmente.  Do contrário, corremos o risco de fazer uma regulamentação vaga. Em relação ao desemprego, por exemplo, todas as profissões intelectuais correm risco, como advogados, professores, jornalistas. Pela primeira vez, podermos ter um alto nível de desocupação intelectual. Mas correm risco principalmente se ficarem de fora da tecnologia. É necessário controlar a tecnologia, que acompanha a história do homem. Porém, a ONU também se debruça sobre outro aspecto: o da utilização da IA para favorecer a inclusão social, ajudando o cidadão a conhecer melhor o seu território e a utilizar melhor os serviços oferecidos localmente.

Integridade ESG — Um mapeamento recente mostrou que os dados usados para adestrar os algoritmos da inteligência artificial têm origem em poucos países e instituições. Mais da metade provém de 12 entes e empresas privadas dos Estados Unidos, Alemanha e Hong Kong. Quase nada vem da América Latina e nenhum dado provém da África. Como podemos nos defender de uma visão tão desequilibrada?

Giuseppe Corasaniti — Esse problema é real, e deve ser solucionado. Mas não com o bloqueio da ferramenta e sim favorecendo um acesso inteligente aos dados pelas comunidades. E essa é a abordagem da ONU. Além da questão da privacidade e das fake news, há o risco de inteiras categorias e até mesmo sociedades, como as da América Latina e África, que representam boa parte da população mundial, serem excluídas de tais dados. Pense na Amazon, que recolheu dados ao longo de anos sobre hábitos de consumo de milhões de pessoas. Tudo isso representa uma vantagem e também um risco. O custo de usar tais plataformas, a proporcionalidade do custo e o acesso a esta tecnologia se tornarão um problema sério.

Hoje, a Europa está estudando o data service, tende a manter o mercado livre e quer disciplinar o gatekeeper. Existem plataformas que podem condicionar a comunicação interativa, o que pode significar que os anglo-saxões podem controlar e ditar as regras do jogo, se não houver uma intervenção política de alto nível.

A ONU, por exemplo, colocou à disposição seus dados econômicos e ambientais para quem quiser programar IA. Não falemos somente do Chat GPT, que é somente uma das ferramentas e tem vantagens e outras diversas desvantagens. Eu mesmo fiz uma prova. Pedi ao Chat GPT para escrever um poema ao estilo de Dante Alighieri, um dos maiores poetas italianos, se não for o maior. O resultado foi pífio, por um motivo simples: trata-se de uma ferramenta anglófona, que não consegue entender sequer o conceito de rima. Teremos melhorias, é claro. Mas se não forem desenvolvidas plataformas com linguagens nacionais teremos imitações como o papagaio estocástico.

Integridade ESG — Como as empresas que usam a IA podem manter suas agendas de governança, pautando-se pela ética?

Giuseppe Corasaniti — Estamos ainda no início. Se fala tanto em Inteligência Artificial, mas devemos falar em Inteligências Artificiais. Cada um tem a sua matriz, a exemplo de Google, Microsoft e Amazon. Não é simples entender como será o uso nos próximos cinco, dez anos. As instituições devem estar se dedicando às questões éticas que envolvem o uso dessa tecnologia, sem dúvida.Cada empresa deve fazer as contas sobre os efeitos de cada tipo de tecnologia, e não falamos apenas de IA. Imaginemos a tecnologia de baterias que não descarregam e outras que podem dar grandes vantagens à população mundial. O problema é quando uma tecnologia de grande interesse passa a ser possuída e vendida somente por algumas pessoas. É nesse ponto que entra o papel decisivo das Nações Unidas e sujeitos internacionais que podem intervir, e não um único país. Creio que a ONU deve organizar rapidamente uma agência específica dedicada à tecnologia, pois o impacto da IA é enorme, e não apenas no âmbito do tratamento dos dados pessoais. Impacta a economia, o desemprego, e sobretudo, o acesso aos dados.  É fundamental que as Nações Unidas façam uma leitura sobre os recursos ambientais e mudanças climáticas meio dessa tecnologia para serem usados com finalidade social.

Leia também

Seja ESG. Inscreva-se para receber gratuitamente notícias, informações e tendências ESG