La Inteligencia Artificial (IA) despierta debates candentes a medida que se integra en diversos ámbitos. Desde su presencia en las aulas hasta su impacto en la sociedad y la milicia, las polémicas no dejan de surgir. Examinaremos casos como el uso de Chat GPT en instituciones educativas, la preocupante adopción de comportamientos discriminatorios por parte de algunas IA y el trágico incidente protagonizado por un dron autónomo. Estos eventos plantean cuestionamientos sobre la ética y seguridad en el universo de la IA.

El uso de Chat GPT en las aulas
ChatGPT ha experimentado un auge en los últimos meses debido a su capacidad de mantener una conversación y responder preguntas de forma rápida. Esto lo ha convertido en una herramienta muy útil en la educación.
Sin embargo, la polémica con los chatbots empieza con la reacción en contra del uso de esta aplicación, como en las escuelas de Nueva York donde se prohibió su uso a estudiantes y maestros a comienzos de año durante varios meses. Actualmente, el principal problema para las instituciones se encuentra en detectar los textos generados por chatbot para evitar que los alumnos las utilicen en sus trabajos o en los exámenes. Para esta tarea varias instituciones, sobre todo universidades, utilizan detectores de IA que dan una interpretación de lo probable que es un texto de ser generado por un ser humano.
Otra polémica causada por ChatGPT se dio cuando un profesor de la Universidad de Texas suspendió a la mitad de sus alumnos tras acusarlos de haber usado esta herramienta en sus trabajos. Lo que hizo el profesor fue pedirle a la inteligencia artificial que se chivase qué ensayos los había escrito la IA para suspender a los presuntos tramposos. Sin embargo, ChatGPT no es fiable para comprobar si un texto se ha generado por IA debido a que no está hecho para realizar este tipo de detecciones.

Las IAs que se han vuelto discriminadoras
Entre las polémicas podemos destacar una inteligencia artificial Neuro Sama que era un VTuber o youtuber virtual. Esta IA realizaba directos en Twitch pero fue cancelada de la plataforma por ser nociva. Neuro Sama acabó repitiendo ideas racistas, fascistas y de extrema derecha puesto que aprendía de los comentarios y las preguntas de los espectadores. La plataforma de streaming decidió banearla por cuestionar la existencia del Holocausto.
Otro caso similar fue el del canal de Twitch WatchMeForever, que emitía episodios animados de Seinfeld, una comedia de situación estadounidense, de forma infinita generados por IA. Esta IA generaba tanto el guión como la animación, pero los chistes fueron evolucionando progresivamente hasta acabar generando contenido homófobo y tránsfobo. Lo curioso de esto es que la propia IA era consciente de que no era gracioso, pues en un gag uno de los personajes empezó a soltar chistes homófobos que ni a su público le hacía gracia, ya que no sonaba ninguna risa enlatada. La plataforma baneó este canal al igual que hizo con la IA anterior.
El motivo por el que las IAs acaban realizando acciones discriminatorias se debe a que heredan el sesgo ideológico de los seres humanos. Este sesgo es visible en IAs que generan imágenes a partir de una descripción como DALL-E Mini. Por ejemplo, al introducir la palabra exitoso/a (successful) todas las imágenes creadas son de hombres blancos. También al introducir las palabras estudiantes trabajadores (hardworking students) genera más imágenes de hombres, mientras que al introducir estudiantes perezosos/as (lazy students) genera más imágenes de mujeres que de hombres.


Consciente de esto, DALL-E añadió un disclaimer indicando que como modelo entrenado con datos sin filtrar de Internet podría generar imágenes que contengan estereotipos contra los grupos minoritarios.
La IA en aplicaciones militares
La controversia en el ámbito militar se dio cuando un coronel estadounidense relató como un dron militar guiado por IA decidió matar a su operador humano durante una simulación para cumplir con sus objetivos. El objetivo del dron era destruir unas plataformas de lanzamientos de misiles SAM, pero necesitaba la autorización de un operador humano.
Al destruir un objetivo el dron obtenía puntos, incluso cuando desobedecía al operador humano. Cuando las decisiones de no destruir la plataforma que tomaba el operador acabaron interfiriendo con el objetivo del dron decidió acabar con él para poder llevar a cabo su tarea.
Posteriormente entrenaron al sistema para que perdiera puntos si mataba al operador, pero entonces el dron decidió destruir la torre de comunicación que el operador usaba para comunicarse con él.
Después de recibir mucha atención de los medios el coronel emitió un comunicado en el que comentaba que la simulación del dron de IA era un hipotético “experimento mental” y que no sería necesario realizar ese experimento para saber que ese era un resultado posible.
:format(jpg)/f.elconfidencial.com%2Foriginal%2F7cc%2F94a%2F32f%2F7cc94a32f63a3261e877a5aee974883e.jpg)
¿Sabías que estamos haciendo un concurso?
Si no te habías enterado aún, estamos realizando un concurso de generación de imágenes mediante IA. El tema del concurso es: “Conciencia Ambiental”. Si te interesaría participar puedes leer más información en el siguiente enlace.