Inteligencia artificial: chatgpt y máquinas que aprenden a fingir

2023-02-27 Leer en voz alta

Por: Carolina Botero y Juan de Brigard

Acceder a la publicación original de esta columna de opinión.

El test de Turing es el nombre que se le ha dado a un experimento planteado en un ensayo titulado “Computing Machinery and Intelligence” de 1950. En él, Alan Turing, el llamado “padre de la informática moderna”, propone un criterio para responder a la pregunta de si una máquina puede considerarse inteligente: en vez de tratar de responder si la máquina es capaz de pensar, con todas las implicaciones filosóficas de esa pregunta, Turing propone imaginar una máquina capaz de emitir respuestas que imiten a las de una persona humana.

Una vez hayamos llegado al punto en que para un usuario sea imposible distinguir las respuestas de la máquina de las que ofrecería un ser humano real, diremos que esa máquina pasó el test.

Hace años hay programas de computador y chatbots que –si no se los empuja demasiado cerca de sus límites– son capaces de pasar esta prueba. Pero en los últimos meses, ChatGPT, la Inteligencia Artificial (IA) de moda, ha deslumbrado al mundo y, para el criterio de muchos, ha conseguido pasar la prueba de Turing con facilidad.

Al fin y al cabo, ¿cómo podemos estar seguros de que tras sus elaboraciones no hay un diligente ejército de trabajadores precarizados “googleando” presurosos las respuestas a nuestras preguntas?

En cualquier caso, nos haya convencido o no, este nuevo desarrollo ha vuelto a poner sobre la mesa la IA y las preguntas que la acompañan: ¿qué tanto puede hacer en realidad? ¿Qué riesgos supone? ¿Tendríamos que regularla? ¿Va a acabar con nuestros trabajos?

En esta columna abordaremos cuatro puntos claves del debate:

  1. lo difícil que sigue siendo ofrecer buenas definiciones de IA
  2. la pregunta por la agencia de las máquinas
  3. las dificultades de su regulación, especialmente en nuestro contexto colombiano
  4. y los límites que estas tecnologías, aunque avanzadas, siguen teniendo.

La bolsa digital de Félix el gato

La expresión “Inteligencia Artificial” (y su sigla, IA) es en realidad un término más adecuado para los libros de ciencia ficción o el “marketing” tecnológico que para la ciencia de la computación.

Uno de sus más grandes expertos en el mundo, Luc Julia, escribió un libro llamado “There is no such thing as Artificial Intelligence” en el que sostiene que este es un término inadecuado y sería mejor utilizar otros, que también se han empezado a popularizar, como “machine learning” o “deep learning”.

El término IA no solo es impreciso por el hecho de que estemos todavía lejos de crear máquinas capaces de pensar en todo el sentido de la palabra (más allá de imitar las externalidades del pensamiento), sino porque agrupa un montón de procesos de distinta naturaleza técnica, grado de complejidad, capacidad, alcance y potencial de hacer daño. Como la bolsa mágica de Félix el gato, es capaz de convertirse en cualquier cosa.

La IA se ha vuelto un concepto sombrilla que agrupa muchas cosas distintas: desde redes adversariales generativas (GAN, por sus siglas en inglés) capaces de crear rostros de personas que no existen, hasta otras formas de redes neuronales artificiales (ANN, por sus siglas en inglés) que juegan al Go mucho mejor que el mejor de los humanos, pasando por generadores transformativos preentrenados (GPT, en inglés, y como en ChatGPT) que han asistido —aunque no estén hechos para eso y con resultados muy dudosos— en la redacción de sentencias, sistemas de decisión automatizados (SDA) que nos recomiendan música nueva o deciden quién tiene acceso a los programas sociales del Estado y quién no, y softwares de reconocimiento facial que usan datos biométricos y son capaces de identificar personas en una multitud. Cabe anotar que esta breve lista está muy lejos de ser exhaustiva.

Desde Karisma ya señalábamos, en una publicación de 2016, cómo estos sistemas algorítmicos comenzaban a usarse en “todas las áreas de nuestras vidas desde la publicidad en línea hasta la policía predictiva y los drones”.

Cada una de estas –muchas– tecnologías tiene su propia definición técnica dada por la manera en que fue construida o por el tipo de operaciones que puede llevar a cabo. Por lo mismo, cada una implica riesgos distintos. Y sin embargo, todos estos modelos se suelen poner en la misma gran bolsa de “Inteligencia Artificial”.

Por esta razón, la RAE no ha conseguido dar con una mejor definición para este término que una simple analogía de lo que podemos hacer las personas con nuestras mentes. ¡Hasta una calculadora Casio de bolsillo podría colarse en esa definición!

En este sentido, si quisiéramos ofrecer categorías más precisas tendríamos que apoyarnos en conceptos técnicos mucho más complejos y limitados, pero esto parece incompatible con la avidez de información fácil propia de nuestro consumo mediático.

Por otra parte, también es importante aclarar que la etiqueta “IA”, sin más especificación, puede remitir a algo distinto. A saber, aquello que la literatura llama una “inteligencia artificial de propósito general”: es una única máquina que, en vez de ser superpotente en un único aspecto, es capaz de hacer cada una de estas estas tareas y muchas más; es casi omnipotente.

Sin embargo, esto aún está lejos de ser real. Por lo pronto tenemos muchas “pequeñas” tecnologías capaces de llevar a cabo tareas relativamente acotadas. ChatGPT puede hablar de muchos temas pero no sabe jugar juegos de mesa y AlphaGoZero juega Go y ajedrez, pero no puede tener conversaciones.

Espejito, espejito…

Lo que separa estos dos tipos de IA, la de propósito general y las específicas, puede entenderse también así: las que ya existen son extensiones potentes de cosas que los humanos podemos hacer, pero no agentes por sí mismas.

Por otra parte, una IA de propósito general podría –hipotéticamente– trazar sus propios objetivos. En cualquier caso este límite es gris y cuando nos acerquemos a ello tendremos que preguntarnos nuevamente qué implica que una máquina tenga agencia y empezar a lidiar con todo un nuevo conjunto de riesgos potencialmente inmensos.

Sin embargo, para nuestra tranquilidad, las formas de IA que tenemos en la actualidad son —o mejor, siguen siendo— herramientas. Su inteligencia es precisamente eso un artificio.

Con ChatGPT esto es fácil de olvidar, pues productos como este están entrenados explícitamente para dar la ilusión de que lo que sucede bajo la superficie tiene que ser un proceso inteligente. Todo su juego consiste en crear la apariencia de la verdad y, en tanto que pueden aprender, son formalmente cada vez más exitosas en ello.

Por eso, frente a sus respuestas tendemos a proyectar mucho de nosotros mismos y a atribuirle a la tecnología rasgos humanos, imaginándola con una cierta personalidad e inclinaciones. ¿O nunca han visto a una abuela agradeciéndole a Alexa por ejecutar una búsqueda?

En todo caso, el que sean una herramienta y no una entidad con agencia propia es un asunto crucial, por ejemplo, para pensar si nos puede reemplazar en nuestros trabajos. Como herramientas que son, las IA que existen actualmente pueden, como máximo, automatizar ciertas tareas, pero no reemplazar del todo a quien las lleva a cabo.

Esto es así porque el criterio último de decisión siempre fue humano en el origen, aún en los casos en que esto queda oculto bajo algoritmos y código de programación, y se automatiza sacando al humano de la cadena.

Por ejemplo, en los SDA, los criterios para tomar dichas decisiones se construyen siempre según la entrada (el “input”) que definen los programadores y las bases de datos de las que disponen para hacerlo.

En ese sentido, la cuarta revolución industrial no parece tan distinta de la tercera, en que los trabajos no desaparecieron, sino que el mercado cambió, facilitando tareas y creando otras nuevas.

Esto no significa que de la actual revolución no se desprendan problemas importantes por ejemplo la gran pregunta de qué tan preparadas están nuestras sociedades, especialmente las que están en vías de desarrollo para adaptarse a nuevos trabajos que requieren capacidades muy diferentes y más tecnológicas o que se agrave nuestra dependencia de software desarrollado en el norte global para poder competir en el mercado.

Por otra parte, este enfoque de las IA como herramientas logra también desplazar la atención de la tecnología misma a los usos que hacemos de ella, lo que facilita la comprensión de los problemas regulatorios.

Procurarás no matar

Nuestro país no es ajeno a los intentos de regulación de la IA como grupo informe de tecnologías. Hemos visto desde herramientas de derecho blando para encauzar estas tecnologías que –según dicen– “tienen el potencial de aumentar considerablemente el crecimiento económico y de resolver problemas sociales estructurales como el cambio climático, la desigualdad y la corrupción” hasta un Conpes dedicado al tema.

Por supuesto, también han surgido proyectos de ley que, aunque caen más rápido que un prototipo de Boston Dynamics, vuelven a presentarse cada cierto tiempo. Hace poco resurgió uno que arrastra los mismos problemas de los anteriores: para empezar, la definición de IA que utiliza es la de la RAE, pero además se centra en la regulación de la herramienta y no de sus usos.

Para explicar esto, en Karisma con frecuencia recurrimos a la siguiente analogía: la tecnología, en este caso la IA, es como un cuchillo: puede usarse tanto para preparar comidas deliciosas como para agredir a otros. Sin embargo, es por eso que no se prohíben los cuchillos directamente, sino que se delimitan los espacios en que pueden portarse y se castiga a quien comete crímenes con ellos, es decir, se regula el uso pero no la herramienta.

Esta analogía permite entender también por qué sería importante tener definiciones más precisas (¿Es una lata afilada un cuchillo? ¿Qué tal un palo de madera con punta? ¿Es igual un cuchillo de mantequilla que uno de chef?) y por qué una ley de IA que busque regulación general es imposible de imponer (prohibir los cuchillos no impide sacarle filo a un cepillo de dientes, como hacen en las cárceles).

Por otra parte, las propuestas de regulación en Colombia con frecuencia consideran que el sector público y el privado deben tratarse igual. Esto es problemático porque nuestra relación con el Estado –dado que lidia con los derechos de todas y todos– es diferente de la que tenemos con las empresas.

El Estado está obligado a proveernos servicios y garantizarnos derechos; incluso, tiene toda una estructura coercitiva que nos obliga a relacionarnos con él de cierta manera. En ambos casos hay relaciones de poder pero se expresan y desarrollan diferentemente, algo que la regulación debe considerar.

Hay que considerar todas estas particularidades cuando se aborda con interés la regulación de la IA, en el caso del sector público la prioridad debe ser el impacto que su implementación tenga en el ejercicio de derechos. Lo que está sucediendo con la digitalización del sistema de identidad o la ya mencionada selección de posibles beneficiarios de programas sociales dan mucho para reflexionar.

Desde el punto de vista de los privados, por otra parte, tener regulaciones demasiado estrictas es un inmenso desincentivo para el desarrollo de nuevas tecnologías en un entorno que, por razones estructurales como la educación y los recursos, ya tiene suficientes barreras para ello.

Sin embargo, los privados no tienen una misionalidad de interés público y eso puede generar incentivos perversos en el mercado, lo que hace pensar que la forma como usan esta tecnología en determinados contextos también necesita regulación y más transparencia en los algoritmos y sus procesos de aprendizaje (principio de “no-discriminación por diseño”), en particular cuando estos puedan generar injusticias y discriminaciones; por ejemplo, en la aprobación de créditos bancarios, de seguros de salud o incluso en el bloqueo de cuentas en aplicaciones de citas.

Además de lo anterior hay un problema de tiempos: la regulación de tecnologías como la IA, que se transforman todos los días, no solo llega siempre demasiado tarde (cuando la implementación ya ha mostrado algunos efectos nocivos), sino que es una manera perfecta para producir legislación que se vuelve obsoleta muy rápidamente.

Esta regulación, sea hecha a través de herramientas de derecho blando o de “lex dura”, puede dar una falsa sensación de seguridad. Por ejemplo, principios como la explicabilidad o la autoridad humana pueden ser muy difíciles o incluso imposibles de aplicar en la práctica por razones técnicas en los desarrollos, o por el hecho de que minan el propósito mismo de usar estas tecnologías en la automatización de procesos, entre otras.

Sin embargo, ante este panorama complejo, en Karisma consideramos que nuestra mejor opción por el momento es establecer estándares mínimos de este tipo, al menos en lo que a la implementación en contextos públicos se refiere.

En esta dirección intervenimos en la audiencia pública sobre este tema el año pasado en la Cámara de Representantes. Allí dijimos que como mínimo toda Inteligencia Artificial debería ser explicable, justa, robusta, transparente y pensada desde la privacidad. Pero, sobre todo, hicimos énfasis en tres cosas.

  1. La regulación debe tener por objeto casos más específicos.
  2. Es necesario establecer mecanismos y espacios democráticos fuertes para dar estas discusiones.
  3. Es urgente regular el uso permitido de los datos, que son los insumos fundamentales para alimentar toda herramienta de este tipo.

El otro lado del espejo

Para algunos la alternativa es simplemente no regular. Esta posición usualmente va asociada a la idea de que las tecnologías de IA, en tanto que no tienen agencia por sí mismas, son neutras, pero esto es una concepción errada: son herramientas y por lo mismo aumentan –y mucho más que un cuchillo– nuestra capacidad de hacer daño y los riesgos asociados a utilizarlas.

Son una extensión de nosotros mismos: los modelos sobre los que fueron construidas tienen los mismos límites y criterios que tienen las personas o las bases de datos que las entrenaron, solo que son potenciados por la tecnología.

Para ilustrar esto, veamos algunos ejemplos.

Aunque tiene sentido que el Estado pueda identificar sospechosos de delitos, automatizar este proceso a través del reconocimiento facial apoyado en IA no solo hace que abusar de esta posibilidad para perfilar enemigos políticos (como personas ejerciendo su derecho legítimo a protestar, entre otras) sea infinitamente más sencillo, sino que cambia la relación fundamental del Estado con la ciudadanía permitiendo que nos trate a todos como potenciales delincuentes.

Las herramientas de reconocimiento facial, además, como se desarrollan en universidades, institutos y compañías del norte global, se entrenan usando las bases de datos de sus propios rostros anglosajones y fallan mucho más en la identificación de rostros racializados, de mujeres o de personas con deformidades faciales.

Con nuestro fenotipo indígena, estos sistemas son técnicamente mucho menos confiables aquí en Colombia que entre las comunidades blancas de Estonia. Por eso, entre otras razones, si se trata de utilizar este sistema para garantizar derechos básicos a través de la cédula digital no hay garantías de que sea suficientemente incluyente.

Volvamos ahora sobre el ejemplo taquillero de ChatGPT. Aunque chatear con “él” o “ella” sea casi indistinguible de chatear con un ser humano, al preguntarle por eventos más recientes que el 2021 el programa empieza a hacer agua y admite que no sabe quién es el presidente actual de Brasil.

O como cuando inventa, al mejor estilo de un mitómano, explicaciones en lenguaje convincente y plausible para fenómenos inexistentes como los “electromagnones invertidos cicloidales”. 

A este fenómeno, descrito en otras IA se lo llama “alucinaciones” y muestra que la verosimilitud y la veracidad son dos cosas muy distintas. Por ello confiar en la calidad de sus respuestas sigue siendo muy peligroso.

Por último, ChatGPT también ha demostrado que los límites éticos que queremos poner a estas tecnologías son insuficientes: un grupo de usuarios de internet se ha dado a la tarea de crear una serie de comandos que engañan a la herramienta para “pensar” que es una versión equivalente a sí misma, pero sin los límites éticos que sus programadores le han impuesto. Haciendo esto han conseguido que dé respuestas racistas, homofóbicas y violentas, que nunca debería haber podido producir.

Aunque tenemos en nuestras manos una serie de tecnologías que son indudablemente tan potentes como peligrosas, seguimos dando pasos ciegos para lidiar con ellas. No sabemos ni cómo sacarles el mayor provecho, ni cómo mitigar sus riesgos.

Quizá, aunque “la” IA ya nos gane en Go, no debamos preocuparnos por que nos quite el trabajo o por que enloquezca y detone nuestras armas nucleares, sino porque estamos corriendo hacia una meta engañosa: estamos creando máquinas que son excelentes para convencernos de que piensan, sin que sean realmente capaces de pensar.

Tenemos una cohorte de estudiantes que prepararon el test de Turing y están a punto de pasarlo. ¿Qué sucederá si lo pasan, pero se rajan en todas las demás materias? 


Si por algún motivo esta entrada no es accesible para tí, por favor escríbenos a comunicaciones@karisma.org.co y haremos los ajustes que estén a nuestro alcance para que puedas acceder al contenido.

Indícanos el título del contenido en el asunto del correo, por ejemplo: Inteligencia artificial: chatgpt y máquinas que aprenden a fingir


Es fundamental poner el tema en la agenda y nutrir la conversación. ¿Trabajas en un medio de comunicación? Escríbenos a comunicaciones@karisma.org.co


Acompáñanos en @Karisma en Twitter, Fundación Karisma en Facebook y YouTube, y @karismacol en Instagram y Tik Tok

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.