Una sentencia histórica en EEUU pone límites al uso de la IA en los colegios

El uso de la inteligencia artificial entre los estudiantes está cada vez más extendido. Herramientas como Chat GPT o Grammarly tienen usos interesantes en la docencia, pero también peligros y se pueden emplear de manera poco ética. Ahora conocemos la primera sentencia que limita el uso de IA tras un caso en un colegio estadounidense.

Poniendo en contexto, en diciembre de 2023 dos alumnos de un instituto de Massachusetts entregaron un proyecto de historia en el que habían empleado esta tecnología, concretamente la aplicación Grammarly. Los estudiantes utilizaron material de la IA como si hubiese sido realizado por ellos, copiando y pegando los resultados que les había dado la herramienta.

De hecho, utilizaron el texto sin haberlo revisado, ya que en él se incluían citas que no existían y otros datos erróneos. El profesor se percató de estos fallos y de que era un trabajo generado por IA, lo que le llevó a suspender a los alumnos. Éstos, además, recibieron una nota negativa en su expediente que impidió a uno de ellos acceder a una sociedad de honor.

Los padres de este alumno, identificado como RNH, decidieron demandar al instituto argumentando que no había unas normas claras que indicaran la prohibición del uso de herramientas de IA. Esto nos lleva ahora a una sentencia histórica, la primera sobre este tema y que puede marcar un antes y un después.

¿Qué dice la sentencia sobre el uso de la IA?

El fallo judicial ha puesto unos límites al uso de este tipo de chatbots que funcionan por IA. Lo fundamental del texto es que se deben priorizar los principios éticos y académicos, algo que no sucedió en este caso al ser un texto copiado y pegado con contenido erróneo.

El abogado especializado en derecho digital, Víctor Salgado, lo ha explicado de la siguiente manera en declaraciones a la Cadena Ser: “El tribunal señaló que, dentro del concepto de integridad académica, el estudiante sabía perfectamente que no podía hacer lo que hizo, ni dentro de la ética ni dentro del objetivo de su formación”. Para él, esto es “un antes y un después”.

Estamos hablando de un caso en el que había citas inventadas y plagio de contenido, sin que se hubiese citado tampoco que la fuente era Grammarly. Este es el punto clave, ya que, tal y como indica también la sentencia, el colegio sí que permitía utilizar la IA, pero para llevar a cabo otras acciones como lluvias de ideas. El uso poco ético de la herramienta por parte de los estudiantes fue lo que hizo que el juez le diese la razón al colegio.

¿Y esto podría pasar en España? Víctor Salgado argumenta que sí que se podría dar el caso de una denuncia semejante, la cuestión es que “la normativa americana no es la misma que la española”. Lo relevante de esta sentencia es que nunca se había producido algo así.

“Es un precedente interesante que tenemos que seguir muy de cerca porque esto es algo totalmente nuevo”, subraya el abogado de A Coruña. Aunque haya una distancia a nivel normativo, es un caso que se puede citar como ejemplo ya que no hay precedentes.

Qué tener en cuenta antes de usar una IA como ChatGPT

Este tipo de chatbots pueden ser útiles para tener ideas o descubrir fuentes a las que acudir para aprender sobre un tema. Con todo, es recomendable utilizarlos de una manera limitada y nunca para conseguir un trabajo final.

Los riesgos de la inteligencia artificial y nuestras recomendaciones

Víctor Salgado apunta a que “no nos podemos fiar al 100%” y que la IA tiende a “alucinar”. Así es como se llama a los errores que derivan de esta tecnología, algo que pagaron caro los estudiantes de este caso. Como vimos, ellos utilizaron la información sin contrastar y eso les llevó a tener citas totalmente inventadas.

Este es el problema más común de herramientas como ChatGPT, que dan datos o fuentes que no son correctas. Aparte, este tipo de tecnologías pueden presentar sesgos en sus algoritmos. Esto implica que sus respuestas pueden estar condicionadas por la manera en la que están programadas o el tipo de información que utilizaron para entrenarlas.

Estas herramientas están muy extendidas entre toda la sociedad y también entre los estudiantes. Los profesionales de la docencia se enfrentan ahora al reto de educar en esta materia y al de detectar posibles malos usos de la IA en los trabajos. Es importante que los estudiantes conozcan las limitaciones de la tecnología, tanto éticas como de su propio funcionamiento.

Cabe remarcar que existen otras herramientas que ayudan a detectar textos que están hechos por IA. Sin embargo, estas también tienen que mejorar su funcionamiento y no debemos fiarnos únicamente de lo que señalan. Está bien utilizar la IA como un apoyo, pero el ser humano tiene que estar atento y formar parte de los procesos.

En Pintos & Salgado nos mantenemos informados de todas las novedades en materia de inteligencia artificial. Sigue nuestro blog y nuestras redes sociales para conocer nuestra opinión y toda la actualidad.