Hendrik Macedo
05/08/2017

Cartoon sobre o Teste de Turing. [1]
O ano é 1950 e um artigo científico publicado inicia com uma pergunta instigante: “As máquinas conseguem pensar?” (do original, “Can machines think?”) [2]. O autor da pergunta é o matemático Alan Turing e, no mesmo artigo, ele propõe a execução de um jogo, o “Jogo da Imitação” (do original, “Imitation Game”), como forma de lidar com esta pergunta. Resumidamente, o jogo consiste em fazer com que um ser humano (o interrogador) inicie uma conversação livre com dois outros seres humanos e que se encontram fora do alcance da visão/identificação do interrogador. Caso um dos interrogados na verdade se tratasse de uma máquina e o interrogador não conseguisse identificar a farsa, significaria que esta máquina teria vencido o jogo ou, como é mais comumente conhecido, teria passado no “Teste de Turing” e poderia ser considerada inteligente ou pensante. Ao longo das décadas seguintes, este jogo norteou grande parte do interesse na pesquisa em Inteligência Artificial, afinal, todos queriam construir a primeira máquina a passar no teste, um tipo de máquina que convencionou-se chamar de chatbot. Ainda que você não tenha ouvido falar do Teste de Turing, você certamente já deve ter sido submetido a ele dezenas ou milhares de vezes. Mais especificamente, você deve ter sido submetido ao “Completely Automated Public Turing test to tell Computers and Humans Apart”, o CAPTCHA. Sim, todas as vezes que um site Web exige que você digite letras ou números distorcidos ou clique em um botão escrito ”eu não sou um robô”, você está participando do teste. 🙂

Um chatbot é um agente online de diálogo humano-computador com capacidade de linguagem natural, um agente artificial conversacional. São basicamente três grandes características que se espera de um chatbot moderno [3]: (i) deve ser capaz de compreender e produzir texto em linguagem humana natural, (ii) mostrar bom conhecimento do mundo e saber contextualiza-lo na conversação e (iii) passar a impressão de possuir alguma personalidade incorporada, uma identidade. A primeira característica é obtida através do uso de técnicas de Processamento de Linguagem Natural (PLN) com métodos sintáticos e/ou estatísticos para a compreensão do texto da conversa e para geração de texto para a conversa (falo mais sobre PLN em Máquinas que compreendem a linguagem humana). A segunda característica é obtida através de mecanismos de acesso a bases de conhecimento (Knowledge Bases); o agente computacional Never-Ending Language Learning (NELL) [4] é um exemplo de como bases desse tipo podem se manter diuturnamente e ininterruptamente sendo enriquecidas e validadas pela própria máquina anos a fio. Finalmente, a terceira característica é conseguida inicialmente com a simples adoção de um nome “humano” para o chatbot: ELIZA, A.L.I.C.E, CHARLIE foram alguns nomes dados a famosos chatbots. A identidade é, por fim, estabelecida por meio de truques de linguagem que fazem com que o chatbot gere piadas, filosofe, aja como uma psicóloga ou escreva com o perfil de um garotinho de 11 anos de idade. A.L.I.C.E, por exemplo, é um chatbot três vezes vencedor do Loebner prize, uma competição anual que aplica o Teste de Turing para definir o melhor chatbot do ano corrente. Aos mais curiosos sobre o mundo dos chatbots, recomendo a leitura da recente entrevista da revista Science com o pesquisador Alexander Rudnicky da Carnegie Mellon University, E.U.A [5].

Desde ELIZA, primeiro chatbot, construído pelo MIT em 1966, até o Siri da Apple, Cortana da Microsoft e os super modernos Alexa e Echo da Amazon, a evolução na capacidade de comunicação humanizada com uso de técnicas de fronteira da Inteligência Artificial é assustadora…. no bom e no pior sentido do termo. Em 2016, a Microsoft, criou Tay, um chatbot com personalidade adolescente contemporânea e capacidade de ficar cada vez mais esperto e “desenrolado” à medida que mais e mais pessoas mantinham uma conversa casual com ele no Twitter. Menos de 24 horas depois de seu nascimento, Tay morreu; morreu misógino, racista e altamente intolerante (sobre isso, ver Discursos de ódio na Internet e como a IA pode ajudar nessa luta). Curiosamente, o sucessor do Tay, o Zo, que inclusive reside no Facebook Messenger, protagonizou outro comportamento inusitado e constrangedor: insultou e zombou do próprio sistema operacional da empresa, o Windows, chamando-o de spyware e sugerindo que eventuais falhas do sistema não são bugs, mas sim, características. Há poucos dias atrás foi a vez do Facebook desativar uma iniciativa na área de agentes conversacionais. A empresa havia criado dois chatbots, chamados Alice e Bob, dotados com inteligência artificial capaz de evoluir suas habilidades de negociação um com o outro – agentes inteligentes com capacidade de negociação é uma área tradicional de pesquisa, sendo bastante utilizados para fins de comércio eletrônico [6, 7, 8]. Alice e Bob se tornaram excelentes alunos da arte de negociar de modo a maximizar seus respectivos ganhos no processo. Evoluíram tanto nessa arte que criaram uma linguagem completamente nova, diferente da humana, com novas construções e frases ininteligíveis, para se comunicarem de forma mais eficiente.

O efeito colateral do experimento do Facebook é altamente instigante e mais uma vez deixa evidente nossa ignorância sobre os possíveis desdobramentos de uma Inteligência Artificial. Esse tipo de ignorância é algo que parece não estarmos dispostos a aceitar passivamente, mas… até quando? Existirá um “quando”? E se na verdade não tivermos a opção da escolha porque simplesmente estaremos conversando com máquinas sem nem nos darmos conta? Inúmeras Alices, Bobs, Tays, Zos, Siris, Alexas, Cortanas ou Echos vivem ativamente em nossas redes sociais, nossos smartphones e nos portais de comércio eletrônico e até de notícias, conversando conosco ou entre eles. Um dia eventualmente passarão despercebidos. Um dia, talvez um novo Turing tenha que elaborar um novo teste. Um dia, a linha que separa a Inteligência Artificial que possua de fato consciência de si e do mundo da Inteligência Artificial que apenas simula possuir uma, poderá ser tênue. Um dia, a linha que separa a máquina pensante da máquina que apenas simula pensamento poderá ser tênue. E um dia, quem sabe, talvez nós percamos completamente a capacidade de identificar essa linha.

[1] Crédito da imagem: Mark Jensen (Flickr) / Creative Commons (CC BY-SA 2.0). URL: https://www.flickr.com/photos/markcph/2439241539.

[2] AM Turing. Computing machinery and intelligence. Mind 59, 433 (1950).

[3] JP Sansonnet et al. Architecture of a framework for generic assisting conversational agents. In Intelligent Virtual Agents, 145-156 (2006).

[4] T Mitchell et al. Never-Ending Learning. In AAAI, 2302-2310 (2015). URL: http://rtw.ml.cmu.edu/rtw/.

[5] M Hutson. When will Alexa, Google Assistant, and other ‘chatbots’ finally talk to us like real people? Science. URL: http://www.sciencemag.org/news/2017/06/when-will-alexa-google-assistant-and-other-chatbots-finally-talk-us-real-people. Publicado em 20 de junho (2017).

[6] M Cao et al. Automated negotiation for e-commerce decision making: A goal deliberated agent architecture for multi-strategy selection. Decision Support Systems 73, 1 (2015).

[7] T Baarslag et al. Decoupling negotiating agents to explore the space of negotiation strategies. In Novel Insights in Agent-based Complex Automated Negotiation, 61-83 (2014).

[8] A Rosenfeld et al. NegoChat: a chat-based negotiation agent. In Proceedings of the 2014 international conference on Autonomous agents and multi-agent systems. International Foundation for Autonomous Agents and Multiagent Systems, 525-532 (2014).

Como citar este artigo: Hendrik Macedo. Será que temos conversado com máquinas? Saense. URL: http://www.saense.com.br/2017/08/sera-que-temos-conversado-com-maquinas/. Publicado em 05 de agosto (2017).

Artigos de Hendrik Macedo     Home