UFRGS
03/03/2019

[1]

Em nosso dia a dia, fazemos uso constante de tecnologias controladas por Inteligência Artificial (IA). Ela está presente em nossos celulares, em programas de computador, nos diagnósticos e tratamentos médicos, nas seleções de emprego e, mais comumente, nas plataformas digitais, como Netflix e Spotify. A IA processa dados fornecidos direta ou indiretamente pelo usuário, identifica padrões e os utiliza para atingir objetivos e realizar tarefas específicas. No entanto, é possível que, no caminho escolhido para alcançar o resultado, haja discriminação de gênero ou de raça, por exemplo. Questões como essas enquadram os casos de comportamentos indesejados a serem evitados.

Um estudo realizado por pesquisadores da Universidade Federal do Rio Grande do Sul (UFRGS) e das universidades americanas de Massachusetts e de Stanford, publicado na revista Science, analisou os possíveis equívocos cometidos pelas IAs e as formas de evitá-los. A partir daí, deu-se a criação dos algoritmos nomeados pelos cientistas como “seldonianos” − em homenagem ao personagem Hari Seldon dos livros do escritor de ficção científica Isaac Asimov. Diferentemente dos algoritmos já existentes, esses funcionam para qualquer tipo de situação e proporcionam maior segurança aos usuários, uma vez que possibilitam a restrição de certos comportamentos da máquina.

Os algoritmos seriam o passo a passo para se alcançar um objetivo, como os que seguimos em uma receita. Eles costumam ser planejados a partir de diferentes situações que levam ao mesmo resultado definido inicialmente. A novidade trazida pelos algoritmos seldonianos é a possibilidade de personalização dos caminhos disponíveis para se chegar à solução necessária em cada caso. “O nosso artigo, então, propõe uma outra maneira de desenvolver esses algoritmos, de forma a ficar mais fácil de regular o comportamento deles, especificando o que eles não devem fazer”, explica o professor do Instituto de Informática da UFRGS e integrante do estudo Bruno Castro da Silva.

Segundo o pesquisador, a ideia é que o usuário passe a conseguir restringir determinados comportamentos da máquina programada de modo a diminuir os erros nas previsões da inteligência artificial. Isso será possível através de dois comandos simples descritos em porcentagem: a estipulação do grau máximo de discriminação que será aceito e a probabilidade de garantia da solução dada, ou seja, o quanto de certeza se deseja para que o algoritmo não erre o resultado. Depois disso, a máquina apresenta o melhor caminho, considerando as restrições estipuladas pelo usuário, ou avisa que não há uma solução possível dentro dessas limitações.

Para comprovar a existência dos erros, foi realizado um teste para tentar prever como 43 mil estudantes de graduação da UFRGS se sairiam em seus três primeiros semestres de curso. Durante o treinamento da IA, foram fornecidas as notas que cada um alcançou nas provas do vestibular para que servissem como base da análise. Os resultados obtidos com os algoritmos já existentes apresentavam indícios de discriminação de acordo com o gênero do estudante: eles previam que homens se sairiam muito melhor do que as mulheres. Enquanto isso, os algoritmos seldonianos mostravam a mesma porcentagem de erro para ambos os gêneros.

Um segundo experimento foi realizado pelo grupo para verificar a viabilidade do algoritmo criado. Nesse, foi usado um simulador de metabolismo humano da Food and Drug Administration – agência federal americana responsável pelo controle de alimentos e medicamentos – para observar como diferentes pessoas com diabetes tipo 1 reagem a determinadas quantidades de insulina. Foi pedido à IA que determinasse quanto de insulina cada paciente precisaria antes de uma refeição com carboidratos, sem haver riscos de um quadro de hipoglicemia. Os algoritmos já existentes indicaram um novo tratamento independente das consequências; já o algoritmo seldoniano não propôs uma dose de insulina até que fosse comprovado que os níveis de açúcar do indivíduo continuariam estáveis.

Os pesquisadores seguem realizando testes de modo a confirmar a eficácia do algoritmo seldoniano antes de ele poder ser liberado para uso do público. A pesquisa atual está centrada nas IAs que comandam os carros autônomos, que já circulam nos Estados Unidos, e podem cometer erros de acordo com as mudanças nas placas de trânsito, por exemplo.

O trabalho integra as atividades do Grupo de Pesquisa Inteligência Artificial do Instituto de Informática, que completa 30 anos em 2020. Confira o programa “Conhecendo a UFRGS”, da UFRGS TV, sobre inteligência artificial e o trabalho do grupo:

Artigo Científico

THOMAS, Philip S. et alPreventing undesirable behavior of intelligent machinesScience Journals, v. 366, issue 6468, p. 999-1004, 22 Nov. 2019. [2]

[1] Foto: Gustavo Diehl/UFRGS.

[2] Texto de Thauane Silva.

Como citar esta notícia científica: UFRGS. Máquinas também erram. Texto de Thauane Silva. Saense. https://saense.com.br/2020/03/maquinas-tambem-erram/. Publicado em 03 de março (2019).

Notícias científicas da UFRGS     Home