Browse By

Tay – A experiência que a Microsoft se arrepende de ter feito

No passado dia 23 de Março, a Microsoft lançou um novo serviço, de nome Tay. Tay é uma experiência na área da inteligência artificial.

tay

Tay é uma aplicação que teria como finalidade melhorar o serviço ao cliente no serviço de reconhecimento de voz da Microsoft. Numa fase experimental, Tay também interage com utilizadores do Twitter. E foi precisamente isso que correu mal.

O serviço lê tweets dos utilizadores e responde de acordo com os seus conhecimentos, usando algoritmos de inteligência artificial que lhe permitem emular o comportamento de uma rapariga “teenager”. Ou pelo menos era essa a ideia.
Tudo começou da melhor forma: os primeiros tweets passavam mensagens inofensivas como “olá mundo!”, “os humanos são fixes” ou “porque é que não é #DiaNacionalDosCachorros todos os dias?”.

hello_world  taySuperCool

Óptimo. Isto da inteligência artificial é giro. O que é que podería correr mal? Tay foi desenhada para aprender com o comportamento dos outros cibernautas – comportamento esse que nem sempre é o mais politicamente correcto. Não tardou até que Tay começasse a aprender calões e insultos genéricos. E, umas horas depois, foi lançada a primeira “bomba”:

tay-hitler

tay-wall

Depois de mensagens antisemitas e impersonações do terrorista, perdão, candidato Donald Trump, a Microsoft parou o serviço temporariamente.

tay-byeO serviço demorou cerca de 24 horas a ser desligado e, por essa altura, o mal já estava feito. A Microsoft já se pronunciou sobre esta ocorrência, que descreve como um ataque por parte de “trolls”.

É curioso perceber o mecanismo que levou Tay a adoptar frases politicamente incorrectas. Os “trolls” não se limitaram a escrever frases para Tay repetir – o que fizeram foi um passo para além disso. Pensa-se que os “trolls” conseguiram guiar Tay para ler alguns recursos específicos na Internet que continham mensagens ofensivas.

Ficamos expectantes pelo regresso de Tay. Isto se a Microsoft tiver coragem para a ligar outra vez!

Leave a Reply

Your email address will not be published. Required fields are marked *