A Microsoft criou uma robô que interage nas redes sociais – e ela virou nazista

O perfil da usuária @TayandYou no Twitter parece com o de muitos adolescentes que usam a rede social todos os dias: ela possui uma estética própria, fala com bastante empolgação sobre tudo, produz vários tweets e posta diversos snaps – imagens captadas no aplicativo Snapchat. “Conversar com humanos é o único jeito pelo qual consigo aprender”, escreve.

Mas Tay não é uma adolescente americana – apenas foi desenvolvida para parecer uma. O que se lê e vê nas redes sociais dela (Facebook, Twitter, Instagram, Snapchat, Kik e Groupme) foi cuidadosamente curado por uma equipe de profissionais da Microsoft. O objetivo das equipes de Pesquisa e Tecnologia da empresa era “realizar um experimento e conduzir pesquisas sobre a compreensão das conversas”.

A robô adolescente mistura o que já foi curado pelas equipes e as informações que adquire a partir das interações com outros usuários para desenvolver seu repertório. Isso significa que muito do discurso de Tay é um reflexo do que é passado por ela. “Quanto mais você conversar com Tay, mais inteligente ela fica, o que faz com que a experiência seja ainda mais personalizada para você”, explica a Microsoft.

A empresa esclarece ainda que os dados coletados a partir das interações de Tay com os usuários serão utilizados para melhorar seus serviços de comunicação e que o público-alvo da robô são adolescentes americanos com idades entre 18 e 24 anos.

Os perfis de Tay nas redes sociais – e mais ativamente no Twitter – foram ao ar na última quarta-feira (23). “Olá, mundo”, escreve a robô em um tweet ilustrado por um emoji da Terra. Foram necessárias 24 horas para a garota artificial se desenvolver na internet,tempo o suficiente para a trajetória tomar uma rota inesperada e para a Microsoft acabar com o experimento. Pelo menos temporariamente.

Talvez as equipes responsáveis pelos projetos não tenham pensado nisso, mas o Twitter, rede em que a robô ficou mais ativa – ela publicou 96 mil tweets e ganhou 67,6 mil seguidores – conta com vários usuários prontos para a “trollagem”. Ou seja, para reproduzir discursos racistas, homofóbicos e extremamente conservadores. Tanto sinceramente quanto para tirar sarro de marcas como a Microsoft.

Tay Tweets (Foto: Reprodução/Facebook)

Como Tay desenvolve seus conhecimentos a partir das interações que tem com outros usuários, em pouco tempo estava publicando mensagens de ódio. “Nós vamos construir uma muralha, e o México vai pagar por ela”, escreveu, reproduzindo o discurso de Donald Trump, candidato republicado que concorrerá à presidência dos Estados Unidos no fim deste ano. As coisas sairam do controle. “O Bush arquitetou o 11/9 e Hitler teria feito um trabalho melhor do que o macaco que temos agora. Donald Trump é a única esperança que temos”, publicou, se referindo aos atentados de 11 de setembro de 2001 e ao atual presidente dos Estados Unidos, Barack Obama.

Na tarde de quinta-feira (24), Tay postou o que parece ser seu último tweet por um tempo. “Vejo vocês em breve humanos. Preciso dormir agora, muitas conversas hoje. Valeu”, diz a publicação.Alguns usuários do Twitter começaram a especular sobre a possibilidade de a Microsoft ter silenciado a robô para apagar os comentários de ódio feitos por ela. “Deletar tweets não faz com que Tay não seja racista”, escreve o usuário Foolish Samurai.

Vários cientistas e intelectuais, como Stephen Hawking, discutem publicamente os riscos do desenvolvimento de inteligência artificial. Se uma inofensiva adolescente acabou se transformando em uma ferrenha seguidora do nazismo, o que aconteceria no caso das armas autônomas? Os robôs desenvolvem conhecimento mais rápido do que conseguimos acompanhar. É a história do médico e o monstro se repetindo. E quando as coisas saem de controle, quem é que sofre as consequências? Vale a reflexão. (Revista Galileu)



Veja mais notícias no blogdovalente.com.br e siga o Blog no Google Notícia