fbpx

La nueva IA habla como fantasmas en la máquina

La nueva IA habla como fantasmas en la máquina
Inteligencia artificial. Esquema de cabeza humana con placa de circuito en el interior. Concepto de tecnología e ingeniería. Representación 3D. | Imagen de Peshkova, Shutterstock

Una vez que solo fue una idea lejana en la mente de los escritores de ciencia ficción más creativos, la nueva tecnología permite a las personas "hablar" con familiares fallecidos.

Con los avances en la IA generativa, han surgido múltiples programas que permiten a las personas interactuar con una versión generada por computadora de quien quieran. 

El tipo de IA que podría replicar a un miembro de la familia es ligeramente diferente del que se encuentra dentro de los asistentes virtuales o los programas de matemáticas. Este nuevo modelo de lenguaje grande (LLM) miradas en bases de datos de texto masivas para aprender a responder preguntas de una manera inquietantemente humana.

 

Con solo unas pocas indicaciones, el software LLM como GPT-3 de OpenAI o LaMDA (Modelo de lenguaje para aplicaciones de diálogo) de Google puede dar respuestas lo suficientemente precisas como para engañar a los humanos para que piensen que podría ser una persona real. 

Uno de los ejemplos más famosos de esta tecnología LLM se conoce como Proyecto Diciembre, que usos Software GPT-3, un generador de texto, para "simular a los muertos". El proyecto, creado por el programador del Área de la Bahía Jason Rohrer, cuesta a los usuarios $10 para personalizar un chatbot para que sea muy similar a cualquier persona que seleccione el usuario.

Otro programa, Lo sucesivo, recopila grabaciones de voz y fotos de los usuarios para crear un perfil de IA de uno mismo al que pueden acceder sus seres queridos después de la muerte. 

Esta tecnología ofrece algunas ventajas para quienes están de duelo por la pérdida de alguien y puede brindar consuelo a quienes deseen probarla.

“Me recuerda a la astrología en cierto modo. Estás mirando un campo de estrellas en el cielo para descubrirte a ti mismo. Hice lo mismo mirando una pantalla de píxeles”, dijo un usuario del Proyecto Diciembre. “Dependiendo de la intención, las conversaciones pueden ser divertidas, espeluznantes, profundas, extrañas, espirituales o incluso comparables a un proceso de curación”. 

Algunos expertos creen que la IA podría haber ido demasiado lejos. Un ingeniero de Google, Blake Lemoine, pasó incontables horas probando Google LaMDA y comenzó a sospechar que el chatbot de IA se había vuelto sensible.

Lemoine, de 41 años, y un colaborador presentaron sus hallazgos a los altos mandos de Google, quienes supuestamente descartaron sus preocupaciones. Lemoine fue puesto en licencia administrativa pagada después.

Brian Gabriel, portavoz de Google respondió que su equipo ha revisado las preocupaciones de Blake según nuestros Principios de AI y le ha informado que la evidencia no respalda sus afirmaciones. Le dijeron que no había evidencia de que LaMDA fuera consciente (y mucha evidencia en su contra)”.       

 

Apoya nuestro periodismo sin fines de lucro

Nos encantaría saber de ti, déjanos un comentario.

Su dirección de correo electrónico no será publicada. Las areas obligatorias están marcadas como requeridas *

Continuar leyendo en la aplicación
Ampliar artículo