Clippy, el clip animado que molestó a los usuarios de Microsoft Office hace casi tres décadas, posiblemente estuvo adelantado a su tiempo.

Microsoft presentó un nuevo personaje de inteligencia artificial llamado Mico el jueves, una cara de dibujo animado flotante con forma de gota o llama que encarnará al asistente virtual Copilot de la gigante del software, el intento más reciente de las empresas tecnológicas por dotar a sus chatbots de inteligencia artificial con más personalidad.

El nuevo y simpático exterior de Copilot, similar a un emoji, llega en un momento en que los desarrolladores de IA enfrentan una encrucijada sobre cómo presentar sus chatbots cada vez más capaces a los consumidores sin causar daño o rechazo. Algunos han optado por símbolos sin rostro, otros como xAI de Elon Musk están vendiendo avatares coquetos y de apariencia humana, y Microsoft busca un punto intermedio que sea amigable sin ser excesivo.

“Cuando hablas de algo triste, puedes ver que cambia la cara de Mico. Puedes verlo bailar y moverse cuando se emociona contigo. Es un esfuerzo por realmente lograr que este compañero de IA se sienta real”, explica en entrevista con The Associated Press Jacob Andreou, vicepresidente corporativo de producto y crecimiento para Microsoft AI.

Por ahora solo en Estados Unidos, los usuarios de Copilot en laptops y aplicaciones de teléfono pueden hablar con Mico, que cambia de color, gira y usa gafas cuando está en modo “estudio”. También es fácil de apagar, lo cual es una gran diferencia con Clippit de Microsoft, mejor conocido como Clippy e infame por su persistencia en ofrecer consejos sobre herramientas de procesamiento de texto cuando apareció por primera vez en las pantallas de las computadoras en 1997.

“No estaba bien adaptado a las necesidades de los usuarios en ese momento”, dijo Bryan Reimer, científico investigador en el Instituto Tecnológico de Massachusetts. “Microsoft lo metió, nosotros lo resistimos y ellos lo eliminaron. Creo que hoy estamos mucho más preparados para cosas como esa”.

Reimer, coautor de un nuevo libro titulado “Cómo hacer útil la IA”, dijo que los desarrolladores están equilibrando cuánta personalidad dar a los asistentes de IA dependiendo del usuario objetivo.

Los expertos en tecnología de codificación posiblemente quieran que la IA “actúe mucho más como una máquina porque en el fondo saben que es una máquina”, dijo Reimer. “Pero las personas que no confían tanto en una máquina serán mejor apoyadas —no reemplazadas— por tecnología que se sienta un poco más humana”.

Microsoft, un proveedor de herramientas de productividad laboral que depende mucho menos de los ingresos por publicidad digital que sus competidores de Big Tech, también tiene menos incentivos para hacer que su compañero de IA sea excesivamente atractivo de una manera que se ha relacionado con el aislamiento social, la desinformación dañina y, en algunos casos, suicidios.

Andreou dijo que Microsoft ha observado cómo algunos desarrolladores se han alejado de “darle a la IA cualquier tipo de encarnación”, mientras que otros se están moviendo en la dirección opuesta habilitando novias de IA.

“Esos dos caminos realmente no resuenan tanto con nosotros”, expresó.

Andreou señaló que el diseño del compañero está destinado a ser “genuinamente útil” y no tan validante que “nos diga exactamente lo que queremos escuchar, confirme los sesgos que ya tenemos, o incluso te absorba desde una perspectiva de tiempo invertido y simplemente intente monopolizar y profundizar la sesión e incrementar el tiempo que pasas con estos sistemas”.

“Ser servil —a corto plazo, tal vez— hace que un usuario responda más favorablemente”, dijo Andreou. “Pero a largo plazo, en realidad no está acercando a esa persona a sus objetivos”.

Parte de los anuncios de Microsoft el jueves incluye la capacidad de invitar a Copilot a un chat grupal, una idea que se asemeja a cómo la IA se ha integrado a redes sociales como Snapchat, donde Andreou solía trabajar, o WhatsApp e Instagram de Meta. Pero Andreou dijo que esas interacciones a menudo han involucrado traer a la IA como una broma para “trollear a tus amigos”, lo cual es diferente del entorno de trabajo asistido por IA “intensamente colaborativo” que Microsoft tiene en mente.

La audiencia de Microsoft incluye a niños, como parte de su añeja competencia con Google y otras empresas tecnológicas para suministrar su tecnología a las aulas. Microsoft también dijo el jueves que ha agregado una función para convertir a Copilot en un “tutor socrático habilitado por voz” que guía a los estudiantes a través de los conceptos que están estudiando en la escuela.

Un número creciente de niños usa chatbots de IA para todo, desde ayuda con la tarea hasta consejos personales, apoyo emocional y toma de decisiones cotidianas.

La Comisión Federal de Comercio de Estados Unidos lanzó una investigación el mes pasado sobre varias empresas de redes sociales e IA —Microsoft no fue una de ellas— sobre los posibles daños a niños y adolescentes que usan sus chatbots de IA como compañía.

Esto se debe a que se ha demostrado que algunos chatbots dan consejos peligrosos a los niños sobre temas como drogas, alcohol y trastornos alimentarios. La madre de un adolescente en Florida que se suicidó después de desarrollar lo que describió como una relación emocional y sexualmente abusiva con un chatbot presentó una demanda por muerte injusta contra Character. AI. Y los padres de un joven de 16 años demandaron a OpenAI y a su CEO Sam Altman en agosto, alegando que ChatGPT asesoró al joven de California en la planificación y ejecución de su propio suicidio.

Altman prometió recientemente “una nueva versión de ChatGPT” que llegará este otoño y que restaurará parte de la personalidad de versiones anteriores, que dijo que la compañía detuvo temporalmente porque “estábamos siendo cuidadosos con los problemas de salud mental” que sugirió que ahora han sido solucionados.

“Si quieres que tu ChatGPT responda de una manera muy humana, o use un montón de emojis, o actúe como un amigo, ChatGPT debería hacerlo”, dijo Altman en X. (En la misma publicación, también dijo que OpenAI habilitará más adelante que ChatGPT participe en “erótica para adultos verificados”, lo cual recibió más atención).

_____

Esta historia fue traducida del inglés por un editor de AP con la ayuda de una herramienta de inteligencia artificial generativa.