Jornal da USP
21/06/2023

Imagem: Gerd Altmann / PublicDomainPictures.net

Por Enio Alterman Blay, doutorando pela Escola Politécnica da USP

Ahistória pode frequentemente nos dar lições através de eventos passados para problemas contemporâneos. O caso em questão é a discussão a respeito de uma moratória nas pesquisas relacionadas com a inteligência artificial. Em 1974, diante de grandes celeumas que aconteciam na sociedade em função das pesquisas genéticas ainda em seus primórdios, foi pedida uma moratória.

Em 1975, aconteceu em Asilomar, nos Estados Unidos, uma conferência para discutir a regulamentação da pesquisa genética. Aquela iniciativa, liderada por pesquisadores das principais universidades envolvidas no assunto, discutiu e desenvolveu um modelo de regulamentação que conseguiu conciliar os interesses do avanço da pesquisa com a segurança necessária para aquela necessidade.

Ou seja, depois de longa discussão, a comunidade científica conseguiu chegar em um documento que serviu de guia para a política de pesquisa genética nos EUA, publicada em 1976.

Trinta e três anos após o evento, o professor Paul Berg, Prêmio Nobel de Química de 1980, que coordenou aquele encontro, publicou na revista Nature um balanço do que foi aquela iniciativa. Chama a atenção o último parágrafo:

“That said, there is a lesson in Asilomar for all of science: the best way to respond to concerns created by emerging knowledge or early-stage technologies is for scientists from publicly funded institutions to find common cause with the wider public about the best way to regulate — as early as possible. Once scientists from corporations begin to dominate the research enterprise, it will simply be too late.” (Dito isso, há uma lição em Asilomar para toda a ciência: a melhor maneira de responder às preocupações criadas pelo conhecimento emergente ou pelas tecnologias em estágio inicial é fazer com que os cientistas de instituições com financiamento público encontrem uma causa comum com a sociedade sobre a melhor maneira de regular – e o mais cedo possível. Pois assim que os cientistas das corporações começarem a dominar o empreendimento de pesquisa, simplesmente será tarde demais [Em tradução livre]).

Ou seja, ele conclui que um dos motivos pelos quais aquela iniciativa foi bem-sucedida deveu-se aos envolvidos serem pessoas da academia, pois, caso a mesma situação tivesse ocorrido já envolvendo pesquisadores de empresas privadas, esse tipo de controle e de legislação teria sido impossível de ser implementado.

A sociedade parece ter memória bastante curta. Ao pesquisar sobre o encontro para regulação da pesquisa genética em Asilomar, verifiquei que foram elaborados princípios gerais para IA, e que os mesmos foram propostos em 2017 como resultado de uma convenção neste mesmo local. Um grupo de pesquisadores de inteligência artificial se reuniu para discutir exatamente a legislação que ora nos falta. O trabalho conjunto de princípios publicados é curiosamente também assinado, inclusive, pelas duas maiores empresas que influenciam o mercado e a discussão presente: OpenAI e Deepmind.

Assim, o que dizer de tais princípios? Empresas acreditam estar se guiando por eles? A sociedade já poderia se sentir confortável com o desenrolar dos fatos? Ou o que foi feito ficou bem aquém do que precisamos?

E, como na já citada conclusão do artigo do professor Paul Berg, são exatamente as empresas que agora estão envolvidas no desenvolvimento da pesquisa. Ou seja, a caixa de Pandora está aberta. [1]

[1] Publicação original: https://jornal.usp.br/artigos/a-caixa-de-pandora-da-inteligencia-artificial/.

Como citar este texto: Jornal da USP. A caixa de Pandora da inteligência artificial.  Texto de Enio Alterman Blay. Saense. https://saense.com.br/2023/06/a-caixa-de-pandora-da-inteligencia-artificial/. Publicado em 21 de junho (2023).

Notícias do Jornal da USP     Home