UFRGS
26/11/2021

A Inteligência Artificial (IA) está cada vez mais presente no nosso cotidiano seja na hora de fazer uma compra online, seja em sistemas utilizados na medicina. Apesar de ser um campo que já vem sendo desenvolvido há anos, os resultados vêm chamando mais a atenção devido ao maior poder computacional das máquinas. O problema recorrente é: como fazer com que a tecnologia seja sempre utilizada para impactar positivamente os seres humanos? Reunindo pesquisadores de vários campos, o grupo IEEE 7007, liderado pelo professor do Instituto de Informática da UFRGS Edson Prestes, desenvolveu um padrão ontológico, isto é, uma norma técnica que auxilia no aprimoramento de sistemas de IA de forma responsável e eticamente adequada.
Ao mesmo tempo que a inteligência artificial tem diversos benefícios, companhias e governos mal-intencionados podem utilizá-la para detectar vulnerabilidades e manipular pessoas – e essa é a parte difícil de regular. Conforme ressalta Edson, o desafio está para além da técnica: “Está em como proteger as pessoas, principalmente as mais vulneráveis, dos abusos daqueles que desenvolvem e comercializam as tecnologias. Então está nessa linha: em como garantir que a tecnologia se desenvolva de forma a não causar um impacto negativo na vida das pessoas, e que mecanismo a gente teria para isso.”
Fundado em 2017, o IEEE 7007 Ontological Standard for Ethically Driven Robotics and Automation Systems Working Group é uma ramificação de uma iniciativa mundial sobre ética em IA que discute o campo sob diversas perspectivas, como dos pontos de vista legal, filosófico, social, cultural e tecnológico. O professor propôs a criação da equipe e, depois do aceite da Associação de Padronização (IEEE), houve uma divulgação global para que profissionais de diferentes áreas participassem da criação. O trabalho envolveu diversos campos de pesquisa, como as áreas de Filosofia, Direito, Computação e Robótica, e foi Edson quem gerenciou todo o grupo, que tem 120 pessoas de mais de 30 países diferentes.
As pesquisas no campo da ética em IA surgiram recentemente, em 2016, e por isso ainda existia o grande desafio que era entender melhor a área. De acordo com o docente, o maior obstáculo foi conhecer o domínio, porque muitas pontas ainda precisavam ser ligadas. “Tu tens uma pessoa da área da filosofia que discute normas, princípios éticos, leis e dados, e tens uma pessoa da área da ciência da computação que sabe desenvolver software. Como é que tu ligas tudo isso? Como é que o software vai estar conectado à ética, às leis, e vai estar conectado ao usuário?”.
A norma técnica e suas possibilidades
Os padrões convencionais já existentes focam em aspectos relacionados à segurança e a definições de conceitos. Já o desenvolvido pelo grupo foi criado a partir do estudo de princípios que, relacionados, resultam em um modelo formalizado utilizando lógica matemática. “O que nós estamos fazendo é criar o que chamamos de ontologia, ou seja, estamos representando o conhecimento em uma área, utilizando formalismo matemático”, ressalta o professor.
Com ampla versatilidade, o novo padrão pode guiar o desenvolvimento da indústria e de operações governamentais ou ser utilizado na área acadêmica, com o estabelecimento de disciplinas na área de ética em inteligência artificial, auxiliando na criação de sistemas mais responsáveis. A norma também pode, por exemplo, ser utilizada na indústria 4.0 (indústria de automação e tecnologia da informação), em sistemas na troca de informações, na comunicação sobre sistemas e também para comunicação entre pessoas de diferentes perfis. O pesquisador explica que o novo padrão também pode ser utilizado para governar o desenvolvimento de sistemas de inteligência artificial aplicada na área de energia atômica.
Poderia imaginar duas máquinas se comunicando, trocando informações usando o padrão, ou de repente, um especialista em uma área se comunicando com outro especialista em outra área utilizando o padrão. Ele poderia ajudar na governança da inteligência artificial, ou seja, como base para desenvolvimento de uma ferramenta para monitorar um sistema de inteligência artificial.Edson Prestes
A ética no sistema de inteligência artificial é importante para que seja possível fazer uma avaliação mais adequada do próprio sistema, pois ele pode ser utilizado de diversas maneiras. “O sistema vai trazer só benefícios? Ele vai causar algum dano ao ser humano? As pessoas que estão interagindo com ele são bem informadas? Quais são os limites da tecnologia? Essas discussões entram no domínio da ética, então temos que pensar nas implicações do uso da tecnologia na sociedade”, explica o coordenador do grupo. É importante ressaltar que o padrão em si não faz uma avaliação nesse sentido, o que se faz é refletir sobre essas dificuldades e tentar identificar o que é necessário naquele sistema para que ele não gere problemas.
Edson dá um exemplo mais concreto: imagine um robô executando determinada tarefa na casa de uma pessoa e suponha que houve uma colisão entre o robô e o ser humano, no qual a pessoa saiu machucada. Nesse tipo de situação, o novo padrão contribui para a identificação dos problemas que podem ter levado a esse acidente. “O que é necessário que as pessoas saibam sobre aquela colisão? Quem pode ser o responsável pelo desenvolvimento do módulo que gerou aquela colisão?”, explica.
O trabalho já começou a ser reconhecido: o grupo foi selecionado para receber o prêmio IEEE SA Emerging Technology Award por desenvolver um padrão ontológico inovador sobre a ética da inteligência artificial. “É muito legal, estou bem satisfeito. Primeiro porque esse grupo foi liderado por um brasileiro em uma área extremamente importante, e esse trabalho é pioneiro, ele vai ser o primeiro padrão ontológico nessa área. Fico muito contente em poder levar alguma visão positiva do Brasil pra fora e mostrar também pra sociedade que aqui a gente desenvolve trabalhos de altíssimo nível”, finaliza Edson. [2]
[1] Foto: Gustavo Diehl/UFRGS.
[2] Texto de Geovana Benites.
Como citar esta notícia: UFRGS. Grupo internacional desenvolve novo padrão de ética em Inteligência Artificial. Texto de Geovana Benites. Saense. https://saense.com.br/2021/11/grupo-internacional-desenvolve-novo-padrao-de-etica-em-inteligencia-artificial/. Publicado em 26 de novembro (2021).