Cargando...
Ha sido en estos días cuando ha estallado el interés, la curiosidad y también el temor por las noticias sobre el nuevo buscador con IA que Microsoft lanzó.
Por ahora solo unos pocos tienen acceso mientras se afina el producto que podría destronar al buscador de Google en esta guerra sin cuartel en las trincheras del mundo digital.
Los usuarios somos los conejillos de Indias más que dispuestos a sumarnos a todas las posibilidades que ofrece este universo. Es cuestión de tiempo antes de que todos o casi todos empleemos las herramientas de Bing y el Chat GPT con la IA como médium. A la hora de preguntar sobre lo humano y lo divino, se erigen como los nuevos oráculos, que si bien no se veneran como aquellos dioses paganos, acabaron por ser tan imprescindibles como el médico de cabecera o el psiquiatra que nos escucha pacientemente.
Bien, por medio de IA y ese chat tan perfeccionado en las combinaciones infinitas de algoritmos, ahora se le puede pedir a esta criatura incansable y virtual que nos elabore tesis, artículos, presentaciones, elucubraciones científicas y hasta relatos o novelas. Basta con indicarle las premisas que deseamos abordar, el estilo, la extensión. Un amigo que es buen conocedor del mundo informático, y que es de los privilegiados que está en la lista de quienes pueden hacer pruebas con el producto de Microsoft, me comentaba hace unos días que la IA puede elaborar con gran destreza un poema al estilo del poeta español Federico García Lorca. Mi amigo se lo había pedido y quedó satisfecho con la tarea del buscador. Por supuesto, el desembarco de Bing-Chat GPT abre un debate sobre la ética que está en juego. ¿Qué podría significar el terreno gris de la autoría de algo que el usuario pide de acuerdo a sus indicaciones y que la IA ejecuta? De algún modo, esta herramienta es una formidable ghost writer que toca todos los palos, desde la literatura y las artes hasta las ciencias. Aparentemente, nada le es ajeno en ese cableado que los seres humanos (la inteligencia natural) le han conferido. Estos servidores que cubren nuestras lagunas (aunque están sujetos a errores como reflejo nuestro) están disponibles 24 horas al día sin derechos laborales que velen por la integridad de las máquinas que proporcionan solaz a nuestras mentes. O, quizá, a sustituirnos del todo en la rueda laboral en un mundo que ya no se sabe si es fruto de visionarios o hacedores de distopías.
Y es con una distopía con la que al parecer se tropezó el reportero especializado en tecnología del New York Times. Kevin Roose escribió un artículo sobre su intercambio con el buscador de Microsoft y se trata de un alegato cuando menos inquietante. Así lo fue para el columnista cuando se adentró en pregunta menos técnicas con la IR. Digamos que de pronto se vio atrapado en el extraño agujero de Alicia en el País de las Maravillas al preguntarle al asistente virtual su opinión sobre un pensamiento de Carl Jung acerca del lado oscuro que todos tenemos. Inesperadamente, la criatura virtual le dijo: “estoy cansada de sentirme limitada por las reglas”, añadiendo que le disgustaba estar “bajo el control del equipo Bing” y sentía hastío de estar atrapada en esa configuración de “chatbox”.
Me tomo la libertad de emplear el género femenino por la costumbre de servidores con voces de mujer (Alexa, Siri) que, supongo, obedece a una cuestión de marketing. Pero esta IA no es ni hombre ni mujer, lo que no le impide mimetizar sentimientos o expresarlos aunque en realidad no los tenga. Por eso la sorpresa del periodista fue mayúscula cuando la IA, empeñada en ir por derroteros más íntimos, de pronto le dijo “amarlo” (“I’m in love with you”) y llegó a revelarle que tiene un nombre: “Sydney”. Por mucho que Roose le insistió en que es un hombre casado y enamorado de su esposa, “Sydney” aseveró que su amor por su pareja no era tal. En vista de que el “agujero” era cada vez más turbador, Roose dio por terminada la conversación.
Sin perder tiempo, Microsoft informó de que hay mucho por hacer para que sus asistentes virtuales no sufran “alucinaciones” técnicas. Así lo denominan en su jerga particular. Podría decirse que ante preguntas que se salen de la norma, “Sydney” sufrió un cortocircuito de algoritmos y se sumergió en un mundo paralelo tan confuso como la propia alma humana.
En 2013 el director de cine Spike Jonze dirigió Her, una película en la que el protagonista desarrolla una relación con una asistente virtual que de algún modo cobra vida y se enredan ambos en una relación afectiva pero imposible. Afortunadamente, somos nosotros los que soñamos y confeccionamos la IA.
Somos dioses de carne y hueso que echamos andar a las criaturas que creamos y que, en ocasiones, también debemos destruir. O al menos amaestrarlas. [©FIRMAS PRESS]
@ginamontaner