Inteligencia Artificial y bienestar de niñas, niños y adolescentes: la responsabilidad es de todos
En el marco de Congreso Futuro, el MinCiencia organizó un conversatorio para reflexionar sobre cómo proteger el bienestar de niñas, niños y adolescentes frente al desarrollo y avance de la Inteligencia Artificial (IA).
15 Enero 2025
Un centenar de personas llegaron a la Sala Cámara del Centro Cultural CEINA para participar en el conversatorio “Creciendo con IA: cómo proteger el bienestar de niñas, niños y adolescentes (NNA)” organizado por el Ministerio de Ciencia, Tecnología, Conocimiento e Innovación (MinCiencia) para reflexionar sobre la relación entre esta nueva tecnología y la vida cotidiana de las personas.
Como panelistas, estuvieron presentes Abel Wajnerman-Paz, profesor asistente de Neuroética en el Instituto de Éticas Aplicadas de la Pontificia Universidad Católica de Chile; Alejandra Phillipp, jefa de carrera de la Escuela de Periodismo de la Universidad de Santiago de Chile, experta en políticas públicas de comunicación y en el acceso, uso y consumo de tecnologías digitales; Cristián Vásquez, gestor de vinculación, difusión y valorización de la IA del Centro Nacional de Inteligencia Artificial (CENIA); y María Emilia Cañas, presidenta del Consejo NNA del MinCiencia.
“Hoy nos planteamos la pregunta sobre qué humanidad queremos ser, y lo hacemos en un momento histórico, en el que la cantidad de datos generados aumenta de manera exponencial. Muy probablemente, en los próximos años, en 24 horas generaremos la misma cantidad de datos que en los últimos mil años, y en nuestros bolsillos vamos a tener la capacidad para procesarla. El planeta y la niñez son dos dimensiones que deberían constituir el dominio de aquello que queremos preservar, como dijo la baronesa Kidron en la ceremonia inaugural”, indicó el subsecretario de Ciencia, Cristian Cuevas.
La importancia de entender qué es la IA y cómo afecta el día a día, cómo utilizarla responsablemente y buscar la forma en que los NNA puedan distinguir entre lo “real y lo artificial” fueron parte de las preguntas que dieron vida al conversatorio.
A juicio de Alejandra Phillippi, en ningún caso se debe pensar que la IA no se debe utilizar, “se debe entender cuáles son los límites que ella tiene, cómo nos regulamos y hacer la distinción respecto del uso que puede tener para personas corrientes y también para generar mayor productividad, como la optimización de los recursos en el trabajo académico de estudiantes universitarios, por ejemplo”.
Según Philippi, la IA desafía a grandes actores: la industria, el tipo de gobernanza que le corresponde (regulación), a los mediadores y partícipes. “Cuando pensamos en los adolescentes, tenemos que pensar quiénes están en el colegio y también en los primeros años universitarios”, explicó. Respecto del uso de esta herramienta, la académica también mencionó que es importante reflexionar sobre cómo hoy se genera el conocimiento, “cuáles son las habilidades que tenemos que desarrollar en los estudiantes, principalmente pensando en las claves y en las habilidades que requieren para hacer un uso con sentido de esta tecnología”.
Cristian Vásquez, gestor de vinculación, difusión y valorización de la inteligencia artificial en el CENIA, destacó que la mejor forma de protegernos de la IA es saber de qué se trata, junto con fomentar y pulir el pensamiento crítico. Ese rol de información y creación del pensamiento crítico es -a su juicio- un rol de las familias y equipos docentes. “Las familias son el primer contacto, posteriormente espacios educativos, no solamente los colegios, sino que también los docentes, los grupos de amigos y también nosotros desde las academias, desde las comunidades científicas. Todos somos responsables de entregar información clara, de manera sencilla, gratuita y que los NNA puedan acceder a esta. Ese espacio informativo debe ser coherente y lo más positivo en la construcción del criterio de las nuevas generaciones”, explicó.
Desde la neuroética, Abel Wajnerman, planteó que antes del primer análisis de la IA es necesario tener una visión clara sobre qué es lo humano, una visión plural que incluya la neurodivergencia y que considere que “lo humano” se dice de muchas maneras. “Es con esa comprensión de lo humano que es necesario educar y alfabetizar a los niños en cómo desarrollar su propia narrativa sobre qué es lo humano para que ellos, desde ahí, se vinculen con la IA”.
Wajnerman señaló que “la responsabilidad tiene que ser supertransversal, tiene que estar en los padres, en los cuidadores, en los profesores y en los niños, niñas y adolescentes mismos también, en la responsabilidad del usuario”. “Para los padres yo creo que es importante trabajar en la noción del humano, inculcar valores para entender la importancia de ciertos vínculos. Y para los docentes y para los profesores es importante considerar el impacto que puede tener en el desarrollo cognitivo y emocional, el uso de este tipo de tecnologías. No de manera prohibitiva sino integrativa”. El Estado también tiene responsabilidad en esta protección a través de la política pública, insistió el profesor del Instituto de Éticas Aplicadas de la UC.
Para Emilia Cañas, “hoy tenemos que entender que los niños, niñas y adolescentes, y la juventud también, son el futuro pero también el presente y es por ello que es esencial que los tomemos en cuenta y levantemos sus voces y el compromiso en torno a la inteligencia artificial, al avance de la tecnología y lo importante que es el desarrollo en conjunto con la sociedad civil”.
Entre los invitados al conversatorio estaba el director de la División de Organizaciones Sociales (DOS) del Ministerio Secretaría General de Gobierno, Ignacio Achurra, quien destacó este tipo de conversaciones “hace que uno tenga que abrir la cabeza, empezar a pensar y reflexionar respecto del impacto de esta nueva tecnología y pensar también en los desafíos enormes que nos presenta tanto a las personas como a la institucionalidad pública. Fue muy interesante, muy provocado, muy estimulado por esta profunda y densa conversación”.