La AMC y el C3 inauguran CITA con un panel interdisciplinario sobre IA
Con información del Centro de Ciencias de la Complejidad de la UNAM
Autora: Aleida Rueda
Ciudad de México, 11 de septiembre de 2023
· La Academia Mexicana de las Ciencias y el Centro de Ciencias de la Complejidad inauguraron este martes los encuentros CITA (Ciencia, Innovación, Tecnología y Academia).
Con un panel de especialistas de la ingeniería, el derecho, el cómputo, la innovación y la comunicación, dio inicio el pasado martes 29 de agosto el primer encuentro CITA (Ciencia, Innovación, Tecnología y Academia), una iniciativa de la Academia Mexicana de Ciencias (AMC) y el Centro de Ciencias de la Complejidad (C3) de la UNAM.
CITA es organizado por la coordinación de comunicación del C3, y su coordinadora Julia Tagüeña, con el fin de tener un espacio mensual en el que se reúnan miembros de distintas comunidades, de la ciencia, la tecnología, la innovación, la comunicación de la ciencia, y el público no especializado, para intercambiar perspectivas sobre temas científicos y tecnológicos relevantes y coyunturales.
“La idea era tener una especie de foro que concentrara a la comunidad científica para discutir temas de actualidad, donde gente con distintos interesas pudiéramos converger, platicar, y escuchar distintos puntos de vista”, dijo José Seade, presidente de la AMC, en la inauguración.
“El C3 tiene un conjunto de amigos, un conjunto de redes y colaboraciones verdaderamente sobresaliente”, aseguró el coordinador general del C3, Xavier Soberón Mainero. Y esto “se nota en las iniciativas que se acercan al Centro (…) Todo augura a que tendremos conversaciones realmente enriquecedoras, realmente atractivas, que fomenten una de las grandes metas que tenemos en el C3: tener redes de colaboración”.
El primero de estos encuentros CITA fue dedicada a la inteligencia artificial con una conferencia titulada “Turing, ChatGPT y las promesas de la Inteligencia Artificial”, a cargo de Luis Pineda, investigador del Instituto de Investigaciones de Matemáticas Aplicadas y Sistemas (IIMAS), e integrante de la AMC y la Academia Mexicana de la Computación.
Tras la charla, un panel interdisciplinario compartió sus reflexiones. Participaron Ingrid Motta, de la empresa BrainGame Central; Alejandro Pisanty, de la Facultad de Química, UNAM; Pedro Salazar, del Instituto de Investigaciones Jurídicas, UNAM; y Aleida Rueda, de la Unidad de Comunicación del C3-UNAM, bajo la moderación de Julia Tagüeña, investigadora del Instituto de Energías Renovables y del C3.
La compleja idea de pensar
“La inteligencia artificial generativa, como el ChatGPT, llegó para quedarse (…) Estas herramientas van a llegar al público en general y la única solución de largo plazo es una sociedad mucho más educada y mucho más crítica”, dijo Pineda en su charla.
Pero un asunto que frecuentemente se cuestiona es si estas herramientas de la inteligencia artificial son capaces de pensar. En realidad, dijo, muchas de ellas son máquinas pre entrenadas para generar modelos de lenguaje cuya idea básica es “que el lenguaje que se va a emitir se puede predecir a partir del lenguaje que se ha observado”.
Es el caso del ChatGPT, un modelo de lenguaje basado en una red neuronal que fue entrenado a partir de todo el texto disponible de internet en 2021 y que es capaz de predecir la palabra que le sigue a la frase que alimenta el sistema. “Estuvieron entrenando esta red durante todo el año con un montón de super computadoras que gastan una cantidad tremendamente grande de energía”, dijo Pineda.
Lo que consiguieron fue hacer de esta herramienta una inmensa fuente de información: “Por ejemplo, si yo ingreso las palabras Sor Juana, el ChatGPT se retroalimenta y me dice Sor Juana fue una, luego Sor Juana fue una escritora, y así, sucesivamente, se va extendiendo”, dijo el ponente.
ChatGPT usa, además, un aprendizaje por refuerzo para castigar o penalizar frases que no son convenientes, como el lenguaje inapropiado. Si bien podría ser una forma positiva de ver estas tecnologías, también propicia muchos retos en términos de derechos humanos, pues “muchísimos seres humanos están trabajando y etiquetando estas frases y penalizándolas para el ChatGPT no la produzca”.
Para el investigador, más que una herramienta pensante, ChatGPT es una herramienta “fluctuante” que “dice cosas falsas, se contradice y comete errores de juicio. Y como ser obcecado y contradictorio es signo de no estar pensando, entonces ChatGPT no está pensando”.
Por eso, dijo Pineda, “no tiene fundamento la idea de que las máquinas van a dominar el mundo”. Lo que sí sucederá, aseguró, es que se van a usar cada vez más, van a propiciar un remplazamiento laboral que requerirá profesionales de mayor calidad y también nuevas formas de pensar y evaluar los sistemas de educativos. Frente a eso, lo que necesitamos, insistió, “es una sociedad cada vez más educada y crítica”.
Regulación, gobernanza y comunicación, los grandes desafíos
Como respuesta a la ponencia de Pineda, los panelitas invitados intercambiaron sus puntos de vista sobre los principales desafíos en el uso de la inteligencia artificial en diversos sectores de la vida en sociedad.
Ingrid Motta dijo que es importante entender la forma en la que la IA permea en nuestras vidas y no solamente repetir de forma simplista que estas herramientas son peligrosas o no. “Esto es la punta del iceberg. El ChatGPT y su capacidad para procesar datos es la punta del iceberg. Esto irá cada vez más rápido”. Y tendrá impacto en la geopolítica: “Quien pueda tener la capacidad energética de procesamiento de datos es quien va a tener el poder económico del mundo”, dijo.
Para Alejandro Pisanty hay varias lecciones aprendidas de la gobernanza de internet que se propuso desde hace 25 años y que pueden ser útiles para la gobernanza de la inteligencia artificial. “Hay que tomar acuerdos sobre temas específicos donde hay problemas que resolver”, dijo. Esto significa que, en lugar de buscar tener regulaciones muy robustas, pero poco prácticas, hay que iniciar con un modelo en el que se analiza qué pasa con la IA en temas específicos: los dispositivos médicos, las publicaciones, la creatividad, la propaganda política, etcétera.
De esta manera, la regulación de la AI puede ser una extensión de los acuerdos que ya imperan en esos ámbitos. “Hay que bajarle un poquito a la comezón de regularlo todo. Y hay que verlo aplicación por aplicación para entender qué es lo que realmente hace falta”, afirmó.
El abogado Pedro Salazar abordó algunas de las preguntas que está generando la IA en el mundo del derecho. Por ejemplo, “¿qué va a pasar con el ejercicio de la profesión jurídica y a quién le va a afectar y a quién le va a dar herramientas o instrumentos para potenciar en sentido expansivo sus capacidades?”. En ese sentido, dijo, las herramientas de la IA van a facilitar varias labores de la jurisprudencia, como el hacer comparaciones entre leyes o discernir precedentes judiciales.
Pero utilizar la IA en una siguiente capa, de decisiones jurídicas, puede ser un riesgo. Un ejemplo es COMPASS, una herramienta de la IA que se utilizó en Estados Unidos para medir las posibilidades de reincidencia entre personas que cometieron actos delictivos y que derivó en sesgos y estigmatización. “Dado que la IA se alimenta de la información existente, también puede reproducir los sesgos de los sistemas penales”, dijo Salazar.
Finalmente, tras la pregunta de Aleida Rueda, el panel coincidió en que uno de los grandes retos está relacionado con la comunicación y la responsabilidad que tiene la comunidad científica de hablar de la IA de manera responsable, clara y en su justa dimensión, de manera que se disminuya la brecha entre la sociedad y las comunidades que desarrollan y estudian estas tecnologías en esferas más especializadas.