0:00
/
0:00
Transcripción

🤖 Helena Matute: «Aún desconocemos cuál es el algoritmo de aprendizaje humano»

🎲 «Hacíamos aprendizaje artificial jugando al mus. Somos de Bilbao. Y cuando llegábamos a los órdagos era imposible para la máquina»

💡 «La Inteligencia Artificial General no la concibo necesariamente como algo que venga a arrasar a la humanidad»

«Mi reacción hace 10 años, sin ChatGPT, fue miedo. Nunca pensé que llegaríamos tan lejos»

⚖️ «Hay gente que quiere flexibilizar la regulación europea de la IA y yo la haría aún más fuerte»

«¿Qué IA queremos? La pregunta fundamental es qué queremos. Hagamos que sea beneficiosa para las personas»

Este boletín Algoritmo Transparente número #92 también está traducido al catalán, inglés, francés e italiano. Entrevista publicada en El Punt Avui, en catalán.

Helena Matute Greño (Bilbao, 1960) es psicóloga, catedrática de Psicología Experimental en la Universidad de Deusto, donde dirige el Laboratorio de Psicología Experimental. Es miembro de Jakiunde, la academia de Ciencias, Artes y Letras del País Vasco, y de la Academia de Psicología de España. Estudió e investigó en Bélgica, Australia y Estados Unidos. Recientemente participó en la presentación, en la Universidad de Barcelona, del libro del doctor Juli Ponce El Reglamento de Inteligencia Artificial de la Unión Europea de 2024, el derecho a una buena administración digital y su control judicial en España, del que Helena Matute es prologuista.

¿Eres de las primeras psicólogas que trabaja la psicología vinculada a las nuevas tecnologías?
En mi área hay muy poca gente. En otras ramas sí hay más psicólogos, por ejemplo quienes investigan el bullying en redes sociales o los problemas psicológicos ligados a Internet, pero en mi especialidad somos pocos.

¿Tu especialidad es la psicología y la inteligencia artificial?
Diría más bien que mi especialidad es la funcionalidad cognitiva: cómo funciona la mente humana, los sesgos cognitivos, la toma de decisiones… Llevo años centrada en la ilusión de causa-efecto, un sesgo muy común que genera muchos problemas. El otro gran tema, muy relacionado, es cómo la IA y las nuevas tecnologías afectan a procesos como la toma de decisiones.

Antes habías estudiado otros aspectos?
Sí. Estudié teorías del aprendizaje. Gran parte de mi trabajo está vinculado a cómo aprenden personas y animales. En los 90 empezamos a estudiar también el aprendizaje de las máquinas, simulando procesos naturales.

La humanidad y el avance tecnológico te han puesto en el mejor escenario. Con el impacto de la IA, ¿estás ante tu gran momento?
La verdad es que sí, es alucinante. Por un lado resulta apasionante; por otro, da bastante miedo. A principios de los 90 queríamos desarrollar una teoría del aprendizaje natural lo bastante buena para codificarla en un ordenador. En aquellos años se hablaba de sistemas expertos, pero nosotros buscábamos bases naturales aunque eso introdujera sesgos y errores. Muchos nos decían: «Eso no sirve, la empresa quiere algo que funcione siempre». Vimos que no llegaríamos muy lejos.

¿Por qué decidiste que necesitabas aprender más sobre lo humano?
Porque las teorías de aprendizaje humano eran (y siguen siendo) muy limitadas. No conocemos bien el algoritmo de aprendizaje humano. Conseguimos curiosidades —una máquina que jugaba al mus— pero, cuando llegábamos al órdago, era imposible: al día siguiente volvíamos a ganarla. Probamos con aprendizaje animal y avanzamos simulando palomas, pero también había límites. Concluimos que primero había que reforzar la investigación psicológica.

Hablas de finales de los 90.
Sí, las publicaciones que hicimos van de 1990 a 1998.

¿Cómo has vivido estos últimos 25 años de evolución tecnológica, sobre todo en IA?
Hace diez años regresé al tema y mi reacción principal —mucho antes de ChatGPT— fue miedo. Jamás imaginé que llegaríamos tan lejos. Vi posibilidades enormes. Empecé a dar conferencias: algunos ingenieros me decían que exageraba; otros admitían que tenía razón pero no se atrevían a decirlo.

¿Sigues teniendo miedo?
Sí, quizá más. Lo que hoy puede hacerse es apasionante, pero en los 90 jamás contemplé riesgos. Entiendo a los ingenieros que tampoco los ven ahora. Hoy los riesgos están por todas partes.

¿Te asusta más la llegada de una Inteligencia Artificial General o las herramientas actuales que afectan al aprendizaje, la enseñanza o las relaciones humanas?
Me asustan ambas. No creo que una AGI venga necesariamente a arrasar la humanidad, pero puede escaparse de las manos sin estar alineada con nuestros valores. Ahora hay una carrera loca por conseguirla y me pregunto: ¿para qué? En paralelo, las herramientas cotidianas influyen ya en nuestra vida: educación, salud, decisiones… todo.

¿Y las herramientas de IA en sí?
En medicina, industria, etc., son utilísimas, pero deben estar muy reguladas. Cuando la IA interactúa con personas hay que extremar la precaución. Amazon ya condiciona nuestras lecturas; las redes, nuestra información. La influencia es enorme.

¿Qué grupo poblacional ves más vulnerable: jóvenes digitales o mayores analógicos?
Los jóvenes confían demasiado: usan las aplicaciones sin cuestionarse nada. Los mayores somos más desconfiados porque intuimos los intereses corporativos. En cualquier caso, la regulación europea debería ser aún más estricta.

Algunas empresas presentan sus chatbots como “razonadores” con “conciencia” o “sentimientos”. ¿Qué opinas?
Es puro marketing. Hoy esos sistemas solo encadenan palabras con la máxima probabilidad de coherencia. El problema es que resultan muy convincentes y, si no dominas el tema, te los crees. Eso es peligrosísimo.

¿En qué se diferencia hablar con un chatbot que parece saber de todo de la charla de bar con gente que opina sin saber?
Con los amigos sabemos que cada uno expresa emociones y tú decides qué creer. Con la IA hay un sesgo de automatización: atribuimos a la máquina objetividad y ausencia de sesgos, como si fuera una calculadora infalible. Aún no hemos asumido que puede inventar y errar.

Compartir

¿Recomiendas alejarse de la IA, acercarse con cautela o usarla sin miedo?
Hay que acercarse, pero con mucha prevención. Deberíamos lanzar campañas masivas de sensibilización. El lanzamiento de ChatGPT fue irresponsable: lo soltaron sin informar y pronto aparecieron casos graves. A la empresa le interesaba: «Aquí lo tenéis, entrenadlo gratis».

Has investigado en Bélgica, Australia y Estados Unidos. ¿Qué ves en otros países?
Hay de todo. En EE. UU. muchos envidian la protección europea y están descontentos con la barra libre para las grandes corporaciones.

¿Te preocupa que Europa retroceda en su regulación?
Sería una pena, con lo que ha costado. La cuestión no es «garantismo o atraso», sino qué IA queremos. Igual que regulamos el tráfico para salvar vidas, debemos regular la IA para que beneficie a las personas. Europa podría liderar esa otra liga.

¿Es la IA una oportunidad para lenguas y culturas como el euskera o el catalán?
Sí, es una gran oportunidad. El tema lingüístico es de los mejor resueltos hoy y los riesgos son mínimos. Si se combina con una regulación adecuada y un enfoque cultural, puede ser fantástico.

Discusión sobre este video