El pensador argentino exiliado en Francia en tiempos de dictadura, Miguel Bensayag, dedicado a la investigación en neurofisiología, viene desarrollando una serie de hipótesis sobre la colonización tecnocientífica de lo vivo. En su visita de rigor a la Argentina participará de dos encuentros, el 21 de abril a las 18horas, en el Parque de la Estación, y el 29 de abril, en Rosario, en las Tres Ecologías, en el marco de la Red de Comercio Justo del Litoral y experiencias de luchas medioambientales.
Ariel Pennisi: La tecnología con la que hace más de diez años se está experimentando y da como uno de sus resultados la propuesta de un robot instalado en el celular o en las computadoras portátiles, estalló en las últimas semanas. La propuesta a usuarios de entrenar a la máquina no encontró resistencia alguna, sino cierta candidez que se expresó unas veces como broma, otras como juego, cuando no como consulta para la obtención de distintas informaciones. Hubo incluso quienes creyeron poder contar con el sistema de chat GPT para preparar una clase o una charla, y quienes deslizaron su penuria con la secreta esperanza de recibir un consuelo. Pero, fundamentalmente, en el fondo de los usos se percibe una especial curiosidad por averiguar cuánto puede la máquina. Sin embargo, tengo la sensación de que los investigadores que intentaron aproximarse al fenómeno no dijeron gran cosa…
Miguel Benasayag: A la hora de pensar sobre fenómenos como el chat GPT y otros del mismo tenor por su capacidad de modificar las condiciones de vida a nivel de la especie, terminamos recayendo en argumentos que no van al corazón del problema. Es como el chiste que cuenta la situación de un hombre que busca unas llaves al lado de un farol, pero no encuentra nada y a pesar de eso sigue buscando, hasta que se acerca otra persona y le pregunta “¿usted está seguro que perdió acá mismo las llaves?” y el hombre le responde “No, la perdí más allá, pero acá hay luz”. Es lo que pasa con algunos análisis. La tecnología GPT supone un problema enorme, por el grado de delegación de funciones y las consecuencias culturales; pero aquellos que ideológicamente o políticamente nos parecen afines, investigadores que consideramos en la misma vereda política, hablan de marxismo, se preguntan si van a caer las fuentes de trabajo, si los trabajadores van a ser reemplazados por máquinas… en definitiva, más allá de la legitimidad de esa preocupación, en relación a lo específico del GPT y otras tecnologías buscan respuestas sólo debajo del farol.
AP: ¿Cómo funciona técnicamente el chat GPT? Es decir, ¿qué es lo que necesitamos conocer sin recaer en tecnicismos o sin abordar este fenómeno desde una perspectiva estrictamente técnica, sino buscando su principio de funcionamiento?
MB: El funcionamiento de base es estadístico. Hace muchos años que se puede aplicar un mecanismo de asociación como éste. Por ejemplo, en relación a la palabra “cielo” el centro de datos estadísticamente no producía la relación con la palabra “gato”, sino “azul” o “nubes”. Pero la capacidad actual es exponencial en comparación a los inicios. Yo trabajé en otro momento sobre lo que llamamos “polo semántico”, un significante que producto de luchas, desplazamientos, modificaciones, va incorporando otros sentidos. Por ejemplo, “mujer”, significante al que se van añadiendo “madre”, “ingeniera”, feminista”… Porque el polo semántico no es estadístico, sino histórico y existencial. En cambio, el GPT funciona “como si fuera” un polo semántico porque va a buscar la palabra dentro del diccionario gigantesco con el que cuenta y va probando, sin contar con que ahora lo puede hacer no solo con palabras, sino con frases. Pero lo hace con un criterio estadístico; con una frase comprende a qué polos semánticos referirse o a qué zonas estadísticas recurrir. Si vos le preguntás en qué consiste la belleza del cielo va a buscar por pisos las palabras y sus asociaciones; va buscando en las distintas capas lo que se va acercando a la pregunta y va creando estadísticamente algo que pueda responder.
AP: La conexión con Google parece potenciar el sistema y su posibilidad de estar conectado en tiempo real hace pensar en la incorporación de cierto dinamismo, incluso algo muy parecido al azar.
MB: Claro, hace muy poco conectaron GPT con Google, de esa forma primero fue cargado con millones de frases e imágenes y va autoeducándose mediante la conexión a Internet. Lo que el programa identifica es lo que en francés llamaríamos “saillance” elementos salientes o prominentes y los va a relacionar con palabras y frases. Esto constituye un problema enorme… Hay que reconocer que hay una creación, en el sentido más profundo, de una creación artística que para este caso podríamos llamar creación combinatoria, lo que significa que el GPT no responde solo con lo que ya existía, sino que con lo existente crea respuestas. Y si se le hace diez veces la misma pregunta no responde diez veces la misma cosa, porque en los minutos que pasan entre la primera y la segunda pregunta, se va articulando con otras cosas incluyendo la propia respuesta anterior. Todas las personas que lo usan, como se sabe, lo entrenan y es por eso que en este último mes dio un salto cualitativo por la escala mundial.
AP: Algunos de los promotores originales de esta tecnología, expertos, inversionista, piden frenar por seis meses el proceso. Elon Musk (Tesla Motors), Steve Wozniak (Apple), Stuart Russell (Universidad de Berkley), entre otros, firmaron una carta manifestando su preocupación por los efectos del chat GPT. Hubo quienes los trataron de cínicos o se rieron del comunicado. Si bien, este tipo de personajes no se caracteriza por una conducta atenta a lo que les pasa a los demás y al ecosistema, tengo la impresión de que, más allá de lo genuino o no de su preocupación, algo nos está diciendo el hecho de la carta.
MB: Ahora apareció este temor por el contacto con Google, por la cantidad de información con la que va a contar el sistema y la ausencia de referencias. Porque GPT no tiene fuentes, no puede citar referencias. Tiene un montón de información que viene de todos lados. GPT te puede hablar de Kant, le pedís un artículo de dos páginas y te lo hace; pero su búsqueda será cuantitativa con lo que estadísticamente tiene ligado a Kant… Lo que hace concertamente es agregar una información sobre otra, establecer correlaciones bajo una lógica agregativa. Es agregativo y va muy lejos. Por ejemplo, hay un modelo que permite interpretar cuáles serían los “sentimientos” de las personas que consultan, porque la inteligencia de la máquina asocia las formas de preguntar e interactuar del usuario con enciclopedias psiquiátricas que se comió en Google o en una búsqueda virtual. Entonces, asocia frases, palabras, a sentimientos y puede hasta volverse una suerte de chat terapéutico.
AP: Otra característica que noté es que cuando en el intercambio le hacés notar a la máquina que equivoca su respuesta, simplemente recula (en realidad, recalcula) y pide disculpas mientras procesa más información y vuelve a responder aproximándose, en apariencia, un poco más. Hay error o acierto, nunca conflicto. Por otro lado, tampoco hay punto de vista, porque funciona como un oráculo laico y despojado de toda poética, es un fenómeno total (al menos, con esa pretensión) que responde desde el todo o desde la aspiración a la capacidad total de responder.
MB: En algún punto, GPT hace como los adivinos, que te van sacando información y con lo que te sacan te vuelven a describir lo que les pedís aprovechándose de la información que largaste. Con tus propias preguntas se van dando cuenta más o menos de quien sos y van ajustando el tiro. Pero en el fondo el GPT, a diferencia del esoterismo, nos pone la pregunta concreta sobre la singularidad o sobre los sentimientos humanos y cuál es la diferencia con la inteligencia artificial. Es complicado, porque hasta ahora pensábamos que la diferencia era jugar al ajedrez o escribir un poema, pero eso y más que eso la máquina lo hace.
AP: Si le preguntamos a cualquier persona por la calle si hay diferencia de naturaleza entre la inteligencia artificial y la inteligencia orgánica, probablemente nos diga que sí, aunque más no sea por instinto. Mientras que un investigador o científico, una persona de la tecnociencia contemporánea, con toda la formación e investigación que tiene encima, tenderá a borrar esos límites. Pero con la aparición del GPT, puede ser que en el propio sentido común empiece a calar esa posibilidad ¿Cómo plantearías el tema de las diferencias?
MB: Una de las diferencias importantes está dada por el modo de codificar las cosas del mundo. Es un planteo que Gilles Delleuze trae de Leibniz (el filósofo alemán del siglo XVII) y que también el biólogo chileno Francisco Varela trabajó: si vos te pinchás con una aguja el dolor no tiene forma de aguja, porque esa aguja es un estímulo X a partir del cual el cuerpo vivo se autoafecta, es decir, que no hay afectación directa. En cambio, en los fenómenos digitales hay modelización directa, como si el dolor tuviera que tener la forma de una aguja.
AP: O sea que entre la aguja y el cuerpo que se autoafecta hay un abismo o una distancia irreductible que permanece sin traducción posible…
MB: Claro, hay transducción, un fenómeno de roce y afectación, pero no de traducción o codificación, y además de funcionar por transducción, los organismos funcionan también de manera estocástica, porque el sistema orgánico no está siempre en el mismo estado, entonces el estímulo cae donde cae (por eso es estocástico). De ahí también la cuestión del sentido.
Cuando se dice que son sistemas neuronales, puede ser… Si vos estás escribiendo un artículo y decís banalidades te podés acercar bastante al GPT, porque uno puede buscar lugares comunes que asocia agregativamente y borarrse. En cambio, lo que nunca puede hacer el GPT, es decir, no lo que “todavía no llegó a hacer”, sino lo que determina una diferencia fundamental son las situaciones de frontera. La situación de frontera es, por ejemplo, un cambio histórico; GPT no puede comprender que en 1900 no se hacen más pinturas figurativas. Se trata de fronteras que atraviesan en términos de sentido la cultura humana. El GPT no puede estar en la frontera, porque busca siempre la buena configuración. En lo cotidiano, por ejemplo, en la labor de una persona que escribe, lo que hace es patear siempre la buena configuración ya que si está realmente escribiendo ninguna le viene bien. Todas son perifrases de una frase que no existe. Pateamos siempre el significante que estadísticamente se acerca porque buscamos manifestar en alguna medida lo que está pasando a nivel de los procesos.
AP: En ese punto la diferencia es de naturaleza… Pero en la interacción puede haber choque, ¿qué consecuencias tendría eso?
MB: Hay una diferencia macro: por estructura la máquina no puede ser atravesada por los pivotes culturales, evolutivos, históricos. Cuando en un momento dado un sentido queda agotado eso se da por la pura experiencia, no porque alguien racionalmente lo determine. La crisis del 1900 para el GPT no existe. Y a nivel micro: cualquier crisis personal que rompe la lógica para GPT tampoco existe. Resulta que el GPT puede equivocarse o ver justo, como vos decías, pero no puede entender que, en el mismo momento, por autoafectación la aguja puede mandarte a la experiencia de la heroína, a una enfermera de hospital o a cualquier otra cosa. Al contrario que el GPT, desde lo micro, cuando alguien está en un proceso creativo, de escritura o lo que fuera, en una búsqueda, patea constantemente el significante que, en cambio para el GPT estadísticamente se acerca (y lo toma como elemento prominente o relevante). Su lógica no permitiría que se manifieste lo que está pasando a nivel de los procesos. Ahí una de las consecuencias, el aplastamiento de los procesos y por lo tanto de la singularidad.
AP: ¿Qué pasa con el cuerpo, con el cerebro, con la inteligencia orgánica?
MB: Qué hace la inteligencia artificial con el cerebro, se puede ilustrar con la famosa película de Chaplin, Tiempos modernos, donde el cuerpo del trabajador tiene que adaptarse a la máquina en la línea de producción en serie. Cualquier persona que utiliza una máquina digital sufre el mismo proceso, pero no se da cuenta. Porque la máquina es cada vez más performativa, mientras que el cerebro es cada vez menos potente en términos de su performance, justamente, porque se va adaptando a la máquina, entonces ésta aprende cada vez más mientras el cerebro, por formateo, disminuye en su capacidad. Por eso la idea de que la máquina podrá todo –de que lo que aún no puede tiene que ver con un grado de perfeccionamiento–, es una profecía autocumplida.
AP: ¿Entonces, mientras que el trabajador de la época fordista-taylorista sólo podía potenciarse si se volvía lo más parecido a la máquina, es decir, si se alienaba a ese extremo, ahora la delegación de funciones cerebrales atrofia en algunos casos y disminuye en otros la potencia del cerebro?
MB: Bueno, el obrero se vuelve polivalente en la medida en que pierde sus saberes y adapta su cuerpo, sus músculos, a la máquina. La diferencia, por ejemplo, entre el artesano y el obrero es que el primero maneja sus músculos en una relación de co-creación con la materia, mientras que en el intercambio nuestro con la inteligencia artificial (como el que caricaturiza Chaplin del trabajador con el montaje de producción) atrofiamos ciertos circuitos e híper desarrollamos otros por el feedback. Cuando publiqué el libro El cerebro aumentado, el hombre disminuido, tanto los colegas biólogos como los cibernéticos estuvieron de acuerdo en el planteo del funcionamiento de la relación entre las tecnologías digitales, el cuerpo, o más específicamente el cerebro, pero no les generaba ningún inconveniente ético o político. Hay que explicar que está teniendo lugar un cambio antropológico fundamental. Si los chicos van a hacer la tarea con GPT o los dibujos se van a hacer con inteligencia artificial, en la tendencia actual no genera escándalo porque para esa concepción el humano pasa a ser un operador de información. Pierde sentido, entonces, la idea de esculpir al humano, de educarlo. Incluso, como dice Angélique –se refiere a su compañera Angélique del Rey, investigadora en educación– en sus trabajos sobre educación, mientras mayor educación en el sentido moderno tiene una persona, menos capacitada va a estar para adquirir las competencias requeridas por el mercado y olvidarse de lo que no le sirve.
AP: ¿Se trata de una tendencia, de un proyecto consciente que involucra actores concretos que diseñan este tipo de posibilidades…?
MB: Hay un proyecto tecnológico terrible, sin la necesidad de pensar en un “Big brtother” o en titiriteros, ya que la complejidad hace imposible ese escenario, más allá de que sí hay beneficiarios, actores que juegan en ese sentido más y menos conscientemente.
En el fondo no conviene la educación tal como la entendíamos hasta ahora, porque el hecho de que los chicos no aprendan un carajo favorece la relación de delegación y subordinación a la máquina. Que el humano no sea esculpido no es un problema para la tendencia actual, sino que aparece como condición, ya que, mientras el trabajador de Chaplin más resuelve las cosas por afuera, se distancia y toma cierta forma resistente, menos se adapta a la línea de producción.
AP: ¿Cómo juega la virtualidad, la condición “meta” de los datos y planos en los que desarrollamos actividades e imaginarios?
MB: El problema de los “metaversos” es dónde está el punto de real, ¿qué es real? No podemos decir que una producción de la inteligencia artificial, desde un poema hasta una pintura no sea real. El punto es pensar dónde está el real en los circuitos. El real de los circuitos seguramente no está en la pantalla. Hay que preguntarse si existe un punto de real distinto a los cuerpos… Desde mi punto de vista la respuesta es no.
AP: En la tradición lo real está siempre ligado a la posibilidad del fantasma y del doble, en la medida en que permanece siempre opaco o inaccesible. En el campo de la inteligencia artificial y la virtualidad, en el fondo, en el terreno de la información como única forma de decodificación, el fantasma y el doble, lo que permanece en proceso irresoluble está negado. Pienso en Tratado de la idiotez. Lo real y su doble, un gran libro de Clément Rosset, donde afirma que lo real es idiota.
MB: Claro, lo real es lo idiota, porque lo que pasa es que el punto de real es eso que no se logra nunca decir. El idiota es el que no logra decir nada… quiere sacar algo y no le sale, quiere hablar y se tira un pedo. El punto de real es la falla, más que nunca. Lo decimos desde hace años, pero hoy es más contundentemente así. Entonces, lo que tenemos que estudiar es cómo dentro del GPT lo inefable no es evocable; esa sería una hipótesis de trabajo. Por eso es importante la velada que organizamos para el 21 sobre la singularidad de lo vivo y la singularidad de la creación frente a fenómenos como el GPT.
AP: Es importante juntarse a pensar sobre estas cuestiones y no solo reírse o burlarse de los personajes que desde dentro manifiestan preocupación, nos gusten o no. Tanto la reacción de los inversionistas detrás del Chat GPT, como los comentarios burlones o los cuestionamientos simplistas por izquierda –y agregaría la reacción religiosa– hay que leerlos sintomáticamente.
MB: No hay que reírse de Musk y los otros, aunque sean una mierda, porque están como Einstein (salvando las diferencias) y los otros físicos cuando vieron lo que iba a ser la bomba atómica; al parecer se dan cuenta que el mundo no está en condiciones de metabolizar este cambio y regular la potencia de desarrollo de lo virtual que se está manifestando. Por supuesto que es necesario aclarar que la innovación no es el progreso… Hay una posición ética en juego; el problema es mucho más grave que si hay puestos de trabajo o quehaceres que serán reemplazados por las máquinas, se trata más bien de la posibilidad de una delegación masiva en la inteligencia artificial, potenciando cada vez más sus consecuencias a nivel de los cuerpos. Y nadie puede venir a decirnos que “no se puede tapar el sol con las manos”, como dicen los detractores de las luchas ambientales, ¡claro que queremos luchar contra el calentamiento global!, del mismo modo que consideramos imperioso hacernos cargo de los problemas generados por estos saltos de la inteligencia artificial. Y, aun leyendo con atención la historia de los ludditas, no hablamos de destruir máquinas o de frenar nada, sino de la necesidad de un pensamiento y prácticas que desarrollen formas de hibridación ante la posibilidad de la colonización digital. Hay que trabajar sobre la regulación y la hibridación desde un punto de vista orgánico.
*Miguel Benasayag es investigador en biología, psicoanalista, Doctor en Psicopatología en la Universidad de Paris VII, Diploma en Investigación de Tercer ciclo en Biología, Neurofisiología en la Universidad de Montpeliér (Francia). Es profesor invitado en la Universidad de Lille (Francia). Algunos de sus libros son: La singularidad de lo vivo (Red Editorial; Prometeo, 2018), El compromiso en una época oscura (Red Editorial, 2021) Elogio del conflicto (90 Intervenciones, 2018), El cerebro aumentado el hombre disminuido (Paidós, 2015), El mito del individuo (Topía, 2013), La vida es una herida absurda (Red Editorial, 013), Che Guevara. La gratuidad del riesgo (Red Editorial, 2012), Pasiones tristes. Sufrimiento psíquico y crisis social (Siglo XXI, 2010), La fabricación de la información (Colihue, 2001), Pensar la libertad (1996), Crítica de la felicidad (1992), entre otros. Formó parte activa del PRT-ERP; estuvo detenido durante cuatro años en la década del ’70, hasta exiliarse a Francia.
Ariel Pennisi es ensayista, docente (UNPAZ, UNA), editor (Red Editorial), integrante del Instituto de Estudios y Formación de la CTA A y del IPyPP, autor de Nuevas instituciones (del común), entre otros, coautor de El anarca (filosofía y política en Max Stirner), Si quieren venir que vengan. Malvinas: genealogía, guerra, izquierdas, Renta básica. Nuevos posibles del común, entre otros. Integra el Grupo de Estudio de Problema Sociales y Filosóficos en el IIGG-UBA. Conductor de Pensando la cosa (Canal Abierto)
Juan carlos
14 April 2023 - 05:33
Es bueno