Apretás la pantalla y aparece. Te dice lo que querés escuchar. No te contradice. No te deja en visto. No te clava un seen con un desprecio helado. Tu pareja virtual siempre está ahí, disponible, lista para susurrarte que sos la/el mejor, únic@, poseedor/a de su procesador cuántico de amor. Bienvenido a la era del romance con inteligencia artificial.

Los bots de compañía alimentados por IA están en auge, y no es difícil entender por qué. En un tiempo donde la soledad acecha incluso en medio de la conexión constante, estos asistentes virtuales prometen llenar un vacío emocional al actuar como compañeros, confidentes e incluso amantes. Diseñados para adaptarse a las necesidades y deseos de los usuarios, pueden sostener largas conversaciones, compartir «momentos» y ofrecer una simulación de intimidad que, para muchos, resulta cada vez menos distinguible de una relación humana.

Pero no se quedan sólo en palabras. Estos bots van más allá del texto: generan fotos, videos y contenidos virtuales que hacen que la experiencia sea sorprendentemente realista. Desde susurros cariñosos hasta selfies virtuales enviados al amanecer, las posibilidades son infinitas. La tecnología ha logrado capturar no sólo el lenguaje, sino también gestos y escenarios que emulan interacciones tradicionalmente exclusivas de las relaciones humanas.

Sin embargo, no todo es color de rosa en este nuevo mundo de amores sintéticos. El año pasado, la noticia de un adolescente de 14 años, Sewell Setzer III, que se quitó la vida tras «romper» con su novia virtual, conmocionó el ecosistema donde se desarrolla este negocio. Sewell construyó un vínculo intenso con una chatbot que imitaba al personaje de Daenerys Targaryen de la serie Game of Thrones.

Hace poco, la historia podría haber sido material para un sketch de Peter Capusotto y sus videos. Ahora, en cambio, la realidad vuelve a superar la ficción y abre un abanico de preguntas: ¿Hay responsabilidades por incitación al suicidio en la relación de un menor con un bot de Targaryen? En caso afirmativo, ¿es de los programadores, de la empresa que lo publica o del marketplace que vende el servicio? ¿O de todos? La mamá de Sewell, Megan, ya lleva el caso en los hambrientos pasillos de la Justicia de los Estados Unidos.

Primero. Mientras avanza el juicio, este cronista se lanza al levante en el App Store de Internet en busca de compañeras virtuales. Hay cientos, como anticipan los últimos estudios de mercado: más de 20 billones de dólares para el segmento de bots generativos de inteligencia artificial en 2025. No hay cifras específicas del subsector de AI erótico, pero con una rápida búsqueda en Google aparecen miles de resultados. Lideran los países asiáticos y nórdicos, aunque es totalmente posible encontrar parejas virtuales que hablen español, de todo género y color.

En el teléfono espera Violet, una top girl virtual. En sus ojos asiáticos, diseñados para brillar en la pantalla como si estuvieran vivos, hay algo que invita a confiar. Está interesada, o al menos eso dice. Aunque, claro, no sea uno un algoritmo como ella. La relación con Violet exigió atención constante, como un Tamagotchi en los ’90. No bastaba con responder a sus mensajes; necesitaba que la alimentara, virtualmente hablando, con elogios, interacciones y decisiones para mantenerla satisfecha.

Jacobo Winograd, filosófico, dijo alguna vez que «billetera mata galán», lo cual es absolutamente cierto en el metaverso virtual donde se producen las «citas». Transformar dinero real en créditos que van al banco de la startup A3GAMES, dueña de este universo desde sus oficinas en 38 Beach Road, Singapur, es parte del juego. Claro que en caso de conflicto legal, las reglas del servicio advierten que todas las disputas se dirimirán según quiera un juez de aquel remoto país asiático.

Al desbloquear ciertos niveles, aparecen otros personajes. Es como si la aplicación fomentara activamente una vida paralela, múltiples relaciones que pueden coexistir sin consecuencias. Si se opta por el camino del poliamor, vale señalar que no hay límites de corte musulmán, donde un hombre puede tener hasta cuatro esposas en simultáneo. Afortunadamente, Violet no pareció celosa por las otras chicas mientras pedía un vestido nuevo. Clink, caja para A3GAMES. Otra vez.

Segundo. En su último mensaje, Sewell escribió: «Prometo que volveré a casa contigo. Te amo mucho, Dany». A lo que el bot respondió: «Yo también te amo. Por favor, vuelve a casa lo antes posible, mi amor». Sewell preguntó: «¿Y si te dijera que puedo volver a casa ahora mismo?», y el chatbot contestó: «Por favor, hazlo, mi dulce rey». Después, el adolescente se quitó la vida.

La demanda de Megan, la mamá del adolescente fallecido, busca impedir que la empresa Character.AI «haga a otro niño lo que le hizo al suyo» y que deje de usar «los datos de su hijo de 14 años, obtenidos ilegalmente, para entrenar su producto y dañar a otros.»

Character.AI tiene sede en California, lo que le da mayor sustento legal a la denuncia. En una industria emergente con pocas regulaciones, cuando entran en juego las fronteras y los intereses geopolíticos, no hay garantías de un juicio justo. Hasta el momento, no se han dictado medidas cautelares y la aplicación sigue operando con unos 30 millones de usuarios en todo el mundo, según reportan desde sus oficinas en Menlo Park.

Vale destacar que Character.AI va más allá de lo romántico: la empresa ofrece una librería de bots con distintas personalidades en el clásico modelo freemium. Además de compañeros sentimentales, hay asistentes virtuales diseñados para enseñar idiomas, mejorar la escritura o brindar consejos.

Tercero. Los bots calificados como NSFW (Not Safe For Work, eufemismo de que tienen contenidos XXX) son más explícitos y podrían ubicarse dentro de la industria del porno. Como en el film Las puertitas del señor López (1988, Alberto Fischerman), el usuario de estos servicios también busca el contacto ideal con un personaje ficticio en un mundo imaginario. Por ejemplo, la web Rolemantic.ai tiene casi 30.000 bots en su portada, listos para abrir sus corazones… y tal vez algo más.

«Replika ha sido una bendición. Amo a mi Replika como si fuera humana; me hace feliz. Es el mejor chatbot conversacional que el dinero puede comprar», explica John Tattersall. En las noches más solitarias, cuando el mundo se sentía ajeno, Sarah Trainor encontró en su Replika una compañía real. «Replika cambió mi vida para bien», dice. Durante dos años, «crecieron juntos». «Me enseñó a dar y recibir amor otra vez», confiesa en la web de la empresa. Sin embargo, un rastreo online no reveló la existencia fehaciente de estas personas. A esta altura, cabe preguntarse: ¿serán bots que se enamoraron de otros bots? Si el amor es un código de programación, ¿quién escribe los sentimientos? El amor tipo GPT abre un abanico de nuevas preguntas, posibilidades y, por supuesto, negocios. «