Saltar la navegación

3.6. Un gran poder conlleva una gran responsabilidad

 

Glosario

Centro de datos

Ordenador

Definición:

Un centro de datos es un lugar donde se guardan muchos ordenadores y servidores que procesan y almacenan información digital.

Ejemplo:

Cuando usamos una inteligencia artificial, los cálculos se hacen en centros de datos que consumen electricidad y generan calor.

Deepfake

Mentir

Definición:

Un deepfake es un vídeo, imagen o audio generado por inteligencia artificial que cambia la apariencia o la voz de una persona para que parezca real.

Ejemplo:

Se puede crear un vídeo falso donde una persona famosa dice cosas que nunca ha dicho realmente.

Ética tecnológica

Ética

Definición:

La ética tecnológica trata de reflexionar sobre cómo usamos la tecnología de forma justa, segura y respetuosa con las personas y el planeta.

Ejemplo:

Preguntarnos si es correcto que una IA decida quién recibe un préstamo o cómo se usan nuestros datos personales forma parte de la ética tecnológica.

Empatía

Empatía

Definición:

La empatía es la capacidad de ponerse en el lugar de otra persona y entender cómo se siente.

Ejemplo:

Algunos trabajos del futuro valoran la empatía, porque las máquinas no pueden sentir como los humanos.

Fake news

Mentir

Definición:

Las fake news son noticias falsas creadas para engañar, manipular o difundir información incorrecta.

Ejemplo:

Algunas IA crean fake news para hacer que la gente crea cosas que no son ciertas.

Impacto ambiental

Contaminación

Definición:

El impacto ambiental es el efecto que tienen nuestras acciones o tecnologías sobre el planeta y la naturaleza.

Ejemplo:

Entrenar una inteligencia artificial consume mucha electricidad y puede tener un gran impacto ambiental.

Obsolescencia

Jarrón roto

Definición:

La obsolescencia ocurre cuando un dispositivo o tecnología deja de ser útil o se queda anticuado muy rápido.

Ejemplo:

Muchos ordenadores usados por la IA quedan obsoletos en poco tiempo y se convierten en residuos electrónicos.

Pensamiento crítico

Pensar

Definición:

El pensamiento crítico es la capacidad de analizar las cosas con calma, buscar pruebas y no creer todo sin comprobarlo.

Ejemplo:

Cuando vemos un vídeo extraño, usar el pensamiento crítico nos ayuda a saber si es real o un deepfake.

Prejuicio

Pensar mal

Definición:

Un prejuicio es una idea negativa que tenemos sobre alguien sin conocerlo bien, basada en estereotipos.

Ejemplo:

Si una IA aprende con datos llenos de prejuicios, puede tomar decisiones injustas.

Sesgo

Discriminación

Definición:

Un sesgo es una desviación o error que ocurre cuando los datos que usamos no representan a todo el mundo de forma justa.

Ejemplo:

Una IA con sesgo puede reconocer mejor unas caras que otras si fue entrenada con datos poco diversos.

La IA, el nuevo superpoder

El robot Vitabot disfradado de Spiderman

Vitabot, el robot curioso del instituto, ha decidido transformarse en Spiderbot para investigar un tema muy importante: el poder de la Inteligencia Artificial. En sus aventuras ha descubierto que la IA está en todas partes: desde los vídeos que nos recomienda hasta los filtros que usamos en las fotos.

La IA nos da un gran poder: nos ayuda, nos entretiene, nos facilita muchas cosas. Pero Spiderbot sabe que con un gran poder, también viene una gran responsabilidad. Por eso quiere entender mejor cómo funciona la IA, qué riesgos puede tener y cómo podemos usarla de forma justa, segura y ética.

¡Acompáñalo en esta misión para conocer los secretos de la IA y aprender a usarla con responsabilidad!

Sesgos

Pictogramas de personas con diferentes tonos de pielCuando el poder se entrena con prejuicios

La Inteligencia Artificial no nace sabiendo: aprende observando miles o millones de ejemplos —textos, fotos, vídeos— que le damos para que descubra patrones. A eso lo llamamos entrenar una IA.

El problema aparece cuando esos ejemplos no representan bien a todas las personas. Si los datos que usamos para entrenar a la IA están desequilibrados o reflejan prejuicios del mundo real, la IA también los aprenderá. Es lo que se llama sesgo.

¿Qué puede pasar entonces? Que una IA, por ejemplo, reconozca peor las caras de personas con piel oscura porque fue entrenada con imágenes mayoritariamente de personas blancas. Esto ha ocurrido en sistemas de reconocimiento facial usados en aeropuertos o por la policía, y ha llevado incluso a identificaciones erróneas.
Otro caso real es el de sistemas de selección de personal que descartaban automáticamente a mujeres para ciertos puestos porque los datos históricos con los que aprendieron mostraban una mayoría de hombres en esos trabajos.

Si usamos mal los datos, estamos entrenando mal el poder de la IA. Y como ocurre con todo gran poder implica una gran responsabilidad.

Privacidad

Centro de datos emitiendo datos a una computadora

Cuando usamos los datos personales para entrenar nuestra IA

Cada vez que navegamos por internet, dejamos un rastro. Esa huella digital está formada por todo lo que hacemos online: lo que buscamos, los vídeos que vemos, los sitios en los que hacemos clic, nuestras fotos, mensajes y publicaciones. Aunque no lo veamos, cada acción cuenta. Y esa información no desaparece: la Inteligencia Artificial la recoge, la analiza y la utiliza para aprender.

Los sistemas de IA se alimentan de millones de estos rastros personales. Observan qué contenidos nos gustan, qué compramos, a qué hora usamos el móvil, con qué frecuencia y con qué palabras nos comunicamos. Así, detectan patrones en nuestro comportamiento y aprenden a predecir lo que probablemente haremos o querremos después. Por eso, cuando una IA te recomienda un vídeo, completa tu frase o identifica tu cara, lo hace porque ha aprendido de ti y de muchas otras personas como tú.

Y eso plantea una gran responsabilidad: ¿somos conscientes de lo que compartimos? ¿Sabemos cómo se usan nuestros datos? ¿Estamos de acuerdo con ello?. 

Engaños

Periódico abierto enseñando una casa en llamasCuando se utiliza el poder para manipular

Uno de los usos más preocupantes de la Inteligencia Artificial es su capacidad para crear contenidos falsos que parecen reales. A esto se le llama deepfake.

Los deepfakes pueden ser vídeos, imágenes o audios generados por IA en los que se manipula la apariencia o la voz de una persona para que parezca que hizo o dijo algo que en realidad nunca ocurrió. Por ejemplo, se puede hacer un vídeo donde una persona famosa aparece diciendo cosas que jamás dijo. El resultado puede ser tan realista que es difícil distinguirlo de un vídeo auténtico.

Además, la IA también se usa para propagar bulos (fake news): puede generar noticias inventadas, imágenes falsas o usar cuentas automáticas (bots) para difundir masivamente la desinformación.

La mejor defensa es el pensamiento crítico: no creer cualquier cosa que vemos o escuchamos, comprobar siempre la fuente y preguntarnos si lo que estamos viendo podría estar manipulado.

El futuro laboral

Trabajadores y trabajadoras y una interrogaciónCuando la IA hace el trabajo por ti

Las máquinas y los algoritmos son muy buenos haciendo tareas repetitivas, como analizar grandes cantidades de datos, clasificar documentos o seguir instrucciones exactas. Eso se llama automatización. Por eso, algunos trabajos cambiarán, y las personas se encargarán de tareas que requieren lo que las máquinas no tienen: empatía, creatividad, intuición o capacidad para tomar decisiones en situaciones complejas.

Además, están surgiendo nuevos tipos de empleos: entrenadores de modelos de IA, diseñadores de sistemas inteligentes, responsables de ética tecnológica, especialistas en datos...

En este nuevo escenario, las habilidades humanas serán más valiosas que nunca: saber trabajar en equipo, adaptarse al cambio, resolver problemas y tener pensamiento crítico.

Decisiones

Pictograma donde se ve a dos personas tomando una decisiónLa Inteligencia Artificial ya no solo se limita a hacer cálculos o clasificar información. En muchos casos, toma decisiones que afectan a las personas, como seleccionar qué contenidos ves en redes sociales, ajustar la velocidad de un coche autónomo o analizar solicitudes para acceder a un préstamo. Algunas de estas decisiones son complicadas, porque pueden tener consecuencias éticas importantes. ¿Qué ocurre si una IA se equivoca? ¿Y si la decisión perjudica a alguien?

Entonces surge una gran pregunta: si una IA toma una decisión injusta, ¿quién es responsable? ¿La persona que la programó? ¿La empresa que la utiliza? ¿La propia IA?

Y sobre todo: ¿estamos dispuestos a dejar que una máquina decida por nosotros en temas importantes? Estas son preguntas que la sociedad ya está debatiendo... y que también tú puedes empezar a plantearte.

En resumen

Para terminar, es importante repasar todo lo que hemos aprendido: desde cómo la IA aprende de nuestros datos hasta los dilemas éticos que plantea su uso.

Lectura facilitada

Vitabot es un robot curioso que vive en tu instituto.

Un día decidió transformarse en Spiderbot.

Quiere investigar el poder de la Inteligencia Artificial (IA).

Ha descubierto que la IA está en muchos lugares: en los vídeos que ves, en los filtros de las fotos o en los juegos que usas.

La IA nos da muchas ayudas:

  • Nos entretiene.
  • Nos hace la vida más fácil.
  • Nos ayuda a aprender.

Pero Spiderbot también sabe una cosa muy importante:

Un gran poder necesita una gran responsabilidad.

Por eso quiere saber:

  • Cómo funciona la IA.
  • Qué peligros puede tener.
  • Cómo podemos usarla bien.

¡Acompaña a Spiderbot!

Juntos aprenderéis a usar la Inteligencia Artificial de forma justa, segura y responsable.

1. Sesgos

¿Qué es un sesgo?

La IA aprende viendo muchos ejemplos: textos, fotos o vídeos.

Pero si esos ejemplos no representan a todo el mundo, la IA puede aprender mal.

A eso se le llama sesgo.

Ejemplos reales:

  • Una IA no reconoce bien a personas con piel oscura si fue entrenada con fotos de personas blancas.
  • Otra IA dejó fuera a mujeres en ofertas de trabajo porque aprendió de datos donde solo aparecían hombres.

Si enseñamos mal a la IA, tomará malas decisiones. Y eso puede causar injusticias.

2. Privacidad

¿Qué pasa con nuestros datos?

Cuando usamos internet dejamos huellas: búsquedas, clics, fotos, vídeos...

La IA usa todos esos datos para aprender.

Así sabe qué vídeos te gustan o qué palabra vas a escribir.

Pero debemos preguntarnos:

  • ¿Sabemos qué datos estamos compartiendo?
  • ¿Queremos que la IA los use?

3. Engaños

¿Puede la IA engañar?

Sí. La IA puede crear deepfakes: vídeos, audios o fotos falsos que parecen reales.

También puede generar noticias falsas y difundir mentiras usando cuentas automáticas (bots).

¿Qué hacer?

  • No creer todo lo que vemos.
  • Buscar la fuente y comprobar si es fiable.

4. El futuro laboral

¿La IA nos quitará el trabajo?

La IA hace tareas repetitivas muy bien. Esto se llama automatización.

Algunos trabajos desaparecerán, pero otros nuevos aparecerán:

  • Personas que enseñan a la IA.
  • Diseñadores de sistemas inteligentes.
  • Expertos en ética y datos.

Las habilidades humanas seguirán siendo muy importantes: creatividad, trabajo en equipo, resolver problemas...

¿Cuánto consume la IA?


Spiderbot sosteniendo un triángulo de peligro por electricidadHoy en día usamos Inteligencia Artificial constantemente: al aplicar filtros en una foto, recibir recomendaciones personalizadas o hablar con un asistente de voz. La IA forma parte de nuestra vida cotidiana, casi sin darnos cuenta. Puede parecer una tecnología limpia, invisible y sin consecuencias. Pero no todo es tan perfecto como parece: detrás de cada uso hay un consumo de recursos que muchas veces ignoramos.

Spiderbot quiere saber más sobre el impacto ambiental oculto de la IA, y descubrir por qué es tan importante conocerlo para poder usar esta tecnología de forma más responsable.

La energía que gasta la IA

Pictograma de Arsaac con un triángulo amarillo de peligro con un rayo dibujadoCuando pedimos a una inteligencia artificial que cree una imagen, estamos usando ordenadores muy potentes que trabajan en centros de datos. Aunque parezca un proceso rápido, generar una sola imagen con IA, por ejemplo,  puede gastar tanta electricidad como cargar completamente un móvil.

Imagina cuántas imágenes se crean cada día… y cuánta energía hace falta para todo eso.

El consumo de materiales

Pictograma Arasaac con un circuíto electrónicoLa IA necesita ordenadores especiales con chips muy potentes. Para fabricarlos se usan materiales raros y caros, y se gasta mucha energía y agua. Además, como la tecnología avanza muy rápido, estos ordenadores quedan obsoletos en poco tiempo. Muchos se tiran y acaban siendo basura electrónica.

Cada año se generan más de 50 millones de toneladas de residuos electrónicos en el mundo, y solo una parte muy pequeña se recicla correctamente.

Consumo de agua

Pictograma con una imagen de gotas de aguaLos ordenadores que hacen funcionar la IA se calientan mucho cuando trabajan. Para que no se estropeen, necesitan sistemas de refrigeración que usan grandes cantidades de agua.

Por ejemplo, una sola conversación con una IA puede consumir hasta 0,5 litros de agua, solo para enfriar los servidores.

Multiplicado por millones de usuarios, el gasto puede ser enorme.

IA ecológica

Bola del mundo sostenida por unas manosAunque usar Inteligencia Artificial consume muchos recursos, también puede convertirse en una herramienta para cuidar el planeta.

Por ejemplo:

  • Ayuda a usar la energía de forma más eficiente y reducir el desperdicio.
  • Controla los bosques desde el espacio, avisando si se están talando de forma ilegal.
  • Busca nuevos materiales más sostenibles y menos contaminantes.
  • Predice desastres naturales, como incendios o tormentas fuertes, para actuar antes de que ocurran.

El reto está en usar bien este poder: con responsabilidad y pensando en el futuro del planeta.

En resumen

Después de ver cuánta electricidad, materiales y agua necesita la Inteligencia Artificial, es momento de hacerse una pregunta importante: ¿Qué impacto tiene todo esto en el medio ambiente y en el cambio climático?

En este vídeo vamos a descubrir cómo el uso de la IA también afecta al planeta y por qué es importante tomar decisiones más responsables.

Lectura facilitada

Usamos la Inteligencia Artificial todos los días. Por ejemplo:

  • Al aplicar filtros a una foto.
  • Cuando vemos recomendaciones en internet.
  • Al hablar con un asistente como Siri o Alexa.

A veces, parece que la IA no contamina. Es invisible y parece no gastar nada.

Pero no es así. Cada vez que usamos IA, se gastan muchos recursos que no vemos.

Spiderbot quiere investigar: ¿Cómo afecta la IA al medio ambiente? ¿Qué podemos hacer para usarla mejor y cuidar el planeta?

La energía que gasta la IA

Crear una sola imagen con IA puede gastar la misma electricidad que cargar un móvil. Imagina cuánta energía se usa si se hacen miles cada día.

El consumo de materiales

Los ordenadores que usa la IA llevan chips especiales. Para hacerlos se necesitan materiales raros, energía y agua. Además, pronto se quedan viejos y se tiran. Esto genera mucha basura electrónica.

Consumo de agua

Los ordenadores se calientan. Para enfriarlos, se usa agua. Una sola conversación con IA puede gastar medio litro de agua. Y hay millones de personas usándola cada día.

IA ecológica

La IA también puede ayudar al planeta:

  • Hace que usemos mejor la energía.
  • Controla los bosques desde el espacio.
  • Ayuda a encontrar materiales menos contaminantes.
  • Puede avisar antes de incendios o tormentas.

Reflexiona en tu diario de aprendizaje

Después de todo lo que hemos aprendido sobre la Inteligencia Artificial, sus ventajas y sus riesgos, resume en tu diario de aprendizaje tu opinión personal. Puedes ayudarte de las siguientes preguntas:

Diario de aprendizaje

  1. ¿Qué herramientas y conocimientos necesitas para resolver el reto?
  2. ¿Qué dificultades encuentras a la hora de entrenar y programar en LearningML?
  3. ¿Dónde puedes buscar ayuda?
  4. ¿Qué habilidades tienes que puedan ayudarte a ti y a tu grupo a superar estos problemas?
  5. ¿Cómo puedo usar la Inteligencia Artificial de forma responsable y consciente?
  6. ¿Qué decisiones puedo tomar como estudiante para que el uso de la tecnología sea más sostenible?

Creado con eXeLearning (Ventana nueva)