10 septiembre 2023

Consejos del MIT de cómo hablar a los niños sobre el ChatGPT y la IA

Collage producido con una imagen generada con DALL-E2

 
Aquí están seis consejos esenciales publicados por el MIT Technology Review sobre cómo comenzar a dar a tu hijo una educación en IA.

Como me pareció interesante hice esta traducción que sirve también para los docentes.
 

1. No lo olvides: la IA no es tu amiga


Los chatbots están diseñados para hacer exactamente eso: chatear. El tono amigable y conversacional que adopta ChatGPT al responder preguntas puede hacer que a los alumnos les resulte más fácil olvidar que están interactuando con un sistema de inteligencia artificial, no con un confidente de confianza. Esto podría hacer que las personas sean más propensas a creer lo que dicen estos chatbots, en lugar de tratar sus sugerencias con escepticismo. Si bien los chatbots son muy buenos para parecer humanos comprensivos, simplemente imitan el habla humana a partir de datos extraídos de Internet, dice Helen Crompton, profesora de la Universidad Old Dominion que se especializa en innovación digital en educación.

"Necesitamos recordarles a los niños que no proporcionen información personal confidencial a sistemas como ChatGPT, porque todo va a parar a una gran base de datos", dice. Una vez que sus datos están en la base de datos, resulta casi imposible eliminarlos. Podría usarse para hacer que las empresas de tecnología obtengan más dinero sin su consentimiento, o incluso podría ser extraído por piratas informáticos.

2. Los modelos de IA no reemplazan a los motores de búsqueda


Los grandes modelos de lenguaje son tan buenos como los datos con los que han sido entrenados. Eso significa que, si bien los chatbots son expertos en responder las preguntas con textos que pueden parecer plausibles, no toda la información que ofrecen será correcta o confiable. También se sabe que los modelos de lenguaje de IA presentan falsedades como hechos. Y dependiendo de dónde se recopilaron esos datos, pueden perpetuar prejuicios y estereotipos potencialmente dañinos. Los estudiantes deben tratar las respuestas de los chatbots como lo harían con cualquier tipo de información que encuentren en Internet: de manera crítica.

“Estas herramientas no son representativas de todos; lo que nos dicen se basa en aquello en lo que han sido capacitados. No todo el mundo está en Internet, por lo que no se verán reflejados”, afirma Victor Lee, profesor asociado de la Escuela de Graduados en Educación de Stanford, que ha creado recursos gratuitos de inteligencia artificial para los planes de estudio de la escuela secundaria. "Los estudiantes deben hacer una pausa y reflexionar antes de hacer clic, compartir o volver a publicar y ser más críticos con lo que vemos y creemos, porque mucho de eso podría ser falso".

Si bien puede resultar tentador confiar en los chatbots para responder consultas, ellos no reemplazan a Google ni a otros motores de búsqueda, dice David Smith, profesor de educación en biociencias en la Universidad Sheffield Hallam en el Reino Unido, que se ha estado preparando para ayudar a sus estudiantes a navegar por los usos de la IA en provecho de su propio aprendizaje. Los estudiantes no deberían aceptar todo lo que dicen los grandes modelos lingüísticos como un hecho indiscutible, dice, y añade: "Cualquiera que sea la respuesta que te den, tendrás que comprobarla".

3. Los profesores podrían acusarte de usar una IA cuando no lo has hecho


Uno de los mayores desafíos para los profesores ahora que la IA generativa ha llegado a las masas es determinar cuándo los estudiantes han utilizado la IA para escribir sus tareas. Si bien muchas empresas han lanzado productos que prometen detectar si el texto ha sido escrito por un humano o por una máquina, el problema es que las herramientas de detección de texto de IA son bastante poco confiables y es muy fácil engañarlas. Ha habido muchos ejemplos de casos en los que los profesores asumen que la IA ha generado un ensayo cuando en realidad no es así.

Familiarizarse con las políticas de IA de la escuela de su hijo o los procesos de divulgación de IA (si los hay) y recordarle la importancia de cumplirlos es un paso importante, dice Lee. Si su hijo ha sido acusado injustamente de utilizar IA en una tarea, recuerde mantener la calma, dice Crompton. No tenga miedo de cuestionar la decisión y preguntar cómo se tomó, y siéntase libre de señalar el registro que ChatGPT mantiene de las conversaciones de un usuario individual si necesita demostrar que su hijo no levantó el material directamente, agrega.

4. Los sistemas de recomendación están diseñados para engancharte y pueden mostrarte cosas malas.


Es importante comprender y explicar a los niños cómo funcionan los algoritmos de recomendación, afirma Teemu Roos, profesor de informática de la Universidad de Helsinki, que está desarrollando un plan de estudios sobre IA para las escuelas finlandesas. Las empresas de tecnología ganan dinero cuando la gente ve anuncios en sus plataformas. Por eso han desarrollado potentes algoritmos de IA que recomiendan contenidos, como vídeos de YouTube o TikTok, para que la gente se enganche y permanezca en la plataforma el mayor tiempo posible. Los algoritmos rastrean y miden de cerca qué tipos de videos ve la gente y luego recomiendan vídeos similares. Cuantos más vídeos de gatos mires, por ejemplo, es más probable que el algoritmo piense que querrás ver más vídeos de gatos.

Estos servicios tienden a guiar a los usuarios hacia contenidos dañinos como información errónea, añade Roos. Esto se debe a que las personas tienden a detenerse en contenidos extraños o impactantes, como información errónea sobre salud o ideologías políticas extremas. Es muy fácil caer en un hueco sin salida o quedar atrapado en un bucle, por lo que es una buena idea no creer todo lo que ves en línea. También debes verificar la información de otras fuentes confiables.

5. Recuerda utilizar la IA de forma segura y responsable


La IA generativa no se limita solo al texto: hay muchas aplicaciones y programas web gratuitos de deepfake que pueden imponer la cara de alguien al cuerpo de otra persona en cuestión de segundos. Si bien es probable que a los estudiantes de hoy se les haya advertido sobre los peligros de compartir imágenes íntimas en línea, también deberían tener cuidado al subir las caras de sus amigos a aplicaciones atrevidas, particularmente porque esto podría tener repercusiones legales. Por ejemplo, los tribunales han declarado culpables a adolescentes de difundir pornografía infantil por enviar material explícito sobre otros adolescentes o incluso sobre ellos mismos.

Hablamos con los niños sobre el comportamiento responsable en la red, tanto por su propia seguridad como para que no acosen, ni hagan "doxx"* o "catfish"* a nadie, pero también debemos recordarles sus propias responsabilidades", dice Lee."Así como se difunden rumores desagradables, puedes imaginar lo que sucede cuando alguien comienza a difundir una imagen falsa".
 
* doxxing = significa divulgar informaciones privadas de una persona para asediar, amenazar o vengarse de ella.
* catfish = es la práctica de personas que crean perfiles con informaciones y fotos falsas en la Internet para engañar, emocional o financieramente, a sus víctimas.

También ayuda proporcionar a niños y adolescentes ejemplos específicos de la privacidad o los riesgos legales del uso de Internet en lugar de tratar de hablar con ellos sobre reglas o pautas generales, señala Lee. Por ejemplo,
puede causar una mayor impresión explicarles cómo las aplicaciones de edición de rostros con IA podrían retener las imágenes que suben, o indicarles noticias sobre plataformas que están siendo pirateadas, que usar advertencias generales de "ten cuidado con tu privacidad", dice.


6. No te olvides para qué es realmente buena la IA


Sin embargo, no todo es pesimismo. Si bien muchas de las primeras discusiones sobre la IA en el aula giraron en torno a su potencial como ayuda para hacer trampas, cuando se usa de manera inteligente, puede ser una herramienta de enorme ayuda. Los estudiantes que tengan dificultades para comprender un tema complicado podrían pedirle a ChatGPT que lo desglose paso a paso, que lo reformule como un rap o que adopte la personalidad de un profesor de biología experto para permitirles poner a prueba sus propios conocimientos. También es excepcionalmente bueno para elaborar rápidamente tablas detalladas para comparar los pros y los contras relativos de ciertas universidades, por ejemplo, cuya investigación y compilación llevaría horas de otro modo.
 
Pedirle a un chatbot glosarios de palabras difíciles, practicar preguntas de historia antes de un examen, o ayudar a un estudiante a evaluar las respuestas después de escribirlas, son otros usos beneficiosos, señala Crompton. "Siempre y cuando recuerdes el sesgo, la tendencia hacia las alucinaciones y las imprecisiones, y la importancia de la alfabetización digital, si un estudiante la utiliza de la manera correcta, eso será fantástico", afirma. "Lo estamos descubriendo sobre la marcha".
 
 
Referencia original
 
Williams, Rhiannon; Heikkilä, Melissa . You need to talk to your kid about AI. Here are 6 things you should say. MIT Technology Review, September 5, 2023. https://www.technologyreview.com/2023/09/05/1079009/you-need-to-talk-to-your-kid-about-ai-here-are-6-things-you-should-say
 
Versión en portugués: Dicas para falar para as crianças sobre o ChatGPT e IA.
https://gonzaloabio-educa.blogspot.com/2023/09/dicas-para-falar-para-as-criancas-sobre.html