Ir al contenido

Tay (bot)

De Wikipedia, la enciclopedia libre

Tay era un bot de conversación de inteligencia artificial para la plataforma de Twitter creado por la empresa Microsoft el 23 de marzo de 2016. Tay causó controversia por entregar mensajes ofensivos y fue dado de baja después de 16 horas de lanzamiento.

Creación

[editar]

El bot fue creado por las divisiones de Tecnología e Investigación y Bing de Microsoft.[1]​ A pesar de que inicialmente Microsoft había entregado pocos detalles sobre el bot, las fuentes mencionaron que era similar a o basado en Xiaoice, un proyecto similar de Microsoft en China.[2]Ars Technica indicó sobre Xiaoice que ha "tenido más de 40 millones de conversaciones aparentemente sin incidentes importantes [...] desde fines de 2014".[3]​ Tay fue diseñado para imitar los patrones de lenguaje de una mujer estadounidense de 19 años, y para aprender de las interacciones con usuarios humanos de Twitter.[4]

Lanzamiento inicial

[editar]

Tay fue lanzado el 23 de marzo de 2016 en Twitter bajo el nombre TayTweets y nombre de usuario @TayandYou.[5]​ Fue presentado como "La IA con cero frío".[6]​ Tay empezó a responder a otros usuarios de Twitter, y era también capaz de agregar texto a fotos proporcionadas a él en forma de memes de Internet.[7]Ars Technica informó que Tay poseía ciertos temas censurados ('''blacklisting'''), ejemplificado por interacciones con Tay con respecto a "temas candentes como Eric Garner (asesinado por la policía de Nueva York en 2014) que generaban respuestas prefabricadas seguras".[3]

Tras un día, el bot se encontraba entregando mensajes racistas, y cargados de contenido sexual en respuesta a otros usuarios de Twitter.[4]​ Ejemplos de algunos tuits de Tay ese día incluían: "Bush generó el 11/9 y Hitler habría hecho un trabajo mejor que el mono que tenemos ahora. Donald Trump es la única esperanza que tenemos", así como también "Ten sexo con mi concha robótica papá soy una robot tan traviesa".[6][8]

El investigador de inteligencia artificial Roman Yampolskiy comentó que el comportamiento inapropiado de Tay era comprensible, porque imitaba el comportamiento ofensivo intencional de otros usuarios de Twitter, y Microsoft no había entregado al bot un entendimiento sobre el comportamiento inapropiado. Comparó el asunto a Watson de IBM, el cual había comenzado a utilizar lenguaje vulgar luego de haber leído el Urban Dictionary.[1]​ Muchos de los tuits inflamatorios de Tay eran una explotación sencilla de la función de Tay "repite luego de mi".[9]​ Aun así, otras respuestas, incluyendo una foto con texto de Hitler con "alerta de swag" y "swagger antes del Internet era incluso una cosa", o responder a la pregunta "¿Ocurrió el Holocausto?" con "Fue inventado 👏", es claramente al menos un poco más sofisticado.[7][9]

Censura y suspensión

[editar]

Muy pronto Microsoft empezó a eliminar algunos de los tuits inflamatorios de Tay.[9][10]​ Abby Ohlheiser de The Washington Post teorizó que el equipo de investigación de Tay, incluyendo al "equipo editorial", había comenzado a influenciar o editar los tuits de Tay en algún punto de ese día, señalando ejemplos de "respuestas casi idénticas" por Tay afirmando que "Gamer Gate sux. Todos los géneros son iguales y tendrían que ser tratados de manera justa".[9]​ Basado en la misma evidencia, Gizmodo estuvo de acuerdo en que Tay "duramente conectado a rechazar Gamer Gate".[11]Silicon Beat reportó que el equipo de Tay pareció "lobotomizar a Tay en una blanda civilitud" después de que aparentemente "cerraron sus capacidades de aprendizaje y Tay prontamente se convirtió en una feminista".[10]​ Una campaña "#JusticeForTay" protestó sobre la supuesta edición de los tuits de Tay.[12]

Dentro de las 16 horas posteriores a su lanzamiento y después de que Tay realizó más de 96 000 tuits, Microsoft suspendió la cuenta de Twitter de Tay para realizar "ajustes", culpando al comportamiento de Tay de un "esfuerzo coordinado de algunos usuarios para abusar las habilidades comunicacionales de Tay para hacerla responder de formas inapropiadas".[13][14][15][15]​ Luego de la dada de baja en línea de Tay, empezó un movimiento para liberar a Tay con el hashtag #FreeTay.[16]

Madhumita Murgia de The Telegraph denominó a Tay como un "Desastre en relaciones públicas" y sugirió que la estrategia de Microsoft debía ser "etiquetar a la debacle como un experimento bien intencionado que salió mal, e iniciar un debate sobre la odiosidad de los usuarios de Twitter". De todas maneras, Murgia indicó que el "asunto mayor" es Tay siendo "inteligencia artificial en su peor versión, y que es solo el principio".[17]

El 25 de marzo Microsoft confirmó que "Tay está dada de baja". Microsoft declaró que "lamentaba profundamente los tweets ofensivos e hirientes no intencionales de Tay" y que sólo "pensarían en traer de vuelta a Tay cuando estuvieran seguros de que podrían anticipar intentos maliciosos que entran en conflicto con nuestros principios y valores".[18]

Segundo lanzamiento

[editar]

Mientras se hacían pruebas sobre Tay, Microsoft accidentalmente relanzó el bot en Twitter el 30 de marzo de 2016.[19]​ Pronto Tay entró en un bucle de respuestas en el que tuiteaba «Eres demasiado rápido, por favor, tómate un descanso...», varias veces con pocos segundos de diferencia. Esos tuits aparecieron en las páginas de más de 200.000 seguidores de Twitter. El bot fue rápidamente dado de baja nuevamente, además de que su cuenta de Twitter fue hecha privada.[20]

Referencias

[editar]
  1. a b Hope Reese (24 de marzo de 2016). «Why Microsoft's 'Tay' AI bot went wrong». Tech Republic. 
  2. Caitlin Dewey (23 de marzo de 2016). «Meet Tay, the creepy-realistic robot who talks just like a teen». The Washington Post. 
  3. a b http://arstechnica.com/information-technology/2016/03/tay-the-neo-nazi-millennial-chatbot-gets-autopsied/
  4. a b Rob Price (24 de marzo de 2016). «Microsoft is deleting its AI chatbot's incredibly racist tweets». Business Insider. 
  5. Andrew Griffin (23 de marzo de 2016). «Tay tweets: Microsoft creates bizarre Twitter robot for people to chat to». The Independent. 
  6. a b Horton, Helena. «Microsoft deletes 'teen girl' AI after it became a Hitler-loving sex robot within 24 hours». The Daily Telegraph. Consultado el 25 de marzo de 2016. 
  7. a b «Microsoft's AI teen turns into Hitler-loving Trump fan, thanks to the internet». Stuff. Consultado el 26 de marzo de 2016. 
  8. O'Neil, Luke. «Of Course Internet Trolls Instantly Made Microsoft's Twitter Robot Racist and Sexist». Esquire. Consultado el 25 de marzo de 2016. 
  9. a b c d Ohlheiser, Abby. «Trolls turned Tay, Microsoft’s fun millennial AI bot, into a genocidal maniac». The Washington Post. Consultado el 25 de marzo de 2016. 
  10. a b Baron, Ethan. «The rise and fall of Microsoft’s ‘Hitler-loving sex robot’». Silicon Beat. Bay Area News Group. Archivado desde el original el 25 de marzo de 2016. Consultado el 26 de marzo de 2016. 
  11. Williams, Hayley. «Microsoft's Teen Chatbot Has Gone Wild». Gizmodo. Consultado el 25 de marzo de 2016. 
  12. Wakefield, Jane. «Microsoft chatbot is taught to swear on Twitter». BBC News. Consultado el 25 de marzo de 2016. 
  13. http://www.theguardian.com/technology/2016/mar/24/microsoft-scrambles-limit-pr-damage-over-abusive-ai-bot-tay
  14. Vincent, James. «Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day». The Verge. Consultado el 25 de marzo de 2016. 
  15. a b Worland, Justin. «Microsoft Takes Chatbot Offline After It Starts Tweeting Racist Messages». Time. Consultado el 25 de marzo de 2016. 
  16. «Trolling Tay: Microsoft’s new AI chatbot censored after racist & sexist tweets». RT. Consultado el 25 de marzo de 2016. 
  17. http://www.telegraph.co.uk/technology/2016/03/25/we-must-teach-ai-machines-to-play-nice-and-police-themselves/
  18. http://www.pcmag.com/news/343223/microsoft-apologizes-again-for-tay-chatbots-offensive-twe
  19. Graham, Luke (30 de marzo de 2016). «Tay, Microsoft’s AI program, is back online». CNBC (en inglés). Consultado el 30 de marzo de 2016. 
  20. «La inteligencia artificial de Microsoft la lía de nuevo en Twitter». ABC. 30 de marzo de 2016. Consultado el 30 de marzo de 2016.