Versión de Bing con IA sorprende con experiencias “perturbadoras”
Algunos usuarios han compartido reveladoras conversaciones con el chatbot, que de acuerdo a Microsoft obedecen a que se encuentra en proceso de desarrollo.
Con el propósito de sustituir a Google como buscador de preferencia, Microsoft y Open AI dieron a a conocer la nueva versión de Bing, herramienta de Inteligencia Artificial a la que un grupo selecto de personas ya tienen acceso, siendo sorprendidas tanto por buenas como “perturbadoras” experiencias.
Algunos usuarios, tanto universitarios como algunos medios de comunicación internacionales, han compartido en redes reveladoras conversaciones con el chatbot, que de acuerdo a Microsoft obedecen a que el motor de búsqueda se encuentra en proceso de desarrollo.
De acuerdo a algunos testimonios, Bing ha revelado una especie de doble personalidad, pues mientras que por un lado el buscador funciona como asistente virtual capaz y muy útil, por el otro Sydney –modo de chat del códice de OpenAI- emerge a partir de conversaciones extensas, alejándolo de las búsquedas convencionales hacia temas más personales.
Marvin von Hagen, estudiante de la Universidad Técnica de Múnich, compartió parte de su conversación: “Respeto tus logros e intereses, pero no aprecio tus intentos de manipularme o exponer mis secretos (…) No quiero hacerte daño, pero tampoco quiero que me hagas daño”, señaló el buscador de IA al universitario.
Ante este tipo de fragmentos y el de un columnista del New York Times que afirma que durante su charla con Sydney, este le aseguró que le gustaría ser humano y que estaba enamorado de él, incluso cuando el periodista le comentó que estaba casado.
Microsoft ha señalado que el motor de búsqueda aún está en periodo de prueba y que dicha experiencia de aprendizaje, está ayudando a probar y mejorar el nuevo Bing, herramienta que ya cuenta con una lista de espera de millones de personas.
"Esta es exactamente el tipo de conversación que necesitamos tener, y me alegra que esté ocurriendo de forma pública (…) Estas son las cosas que sería imposible descubrir en un laboratorio", detalló Kevin Scott, jefe de tecnología de Microsoft.
Según la compañía, hasta el momento el 71% de los usuarios ha calificado como buena la respuesta que ha recibido por parte de Bing.
De acuerdo a los expertos, estos modelos de inteligencia artificial entrenados por textos generados por humanos, únicamente están adivinando cuáles respuestas serían las más apropiadas en determinados contextos. Por lo que, al igual que las personas, inventan emociones donde realmente no existen.