Los riesgos de la inteligencia artificial y nuestras recomendaciones

La inteligencia artificial ha avanzado mucho en el último año y medio, dándonos herramientas que nos facilitan el día a día. Con todo, debemos tener siempre presente que esta tecnología tiene ciertos peligros. En este post te contamos los riesgos de la inteligencia artificial y cuáles son nuestras recomendaciones de uso.

El objetivo de la inteligencia artificial es que la tecnología tome decisiones y aprenda por sí misma, enseñándole lo mínimo posible. Antes sí que se le tenía que explicar paso por paso lo que debía hacer, pero ahora va mucho más allá. Se trata de un método denominado Deep learning que definimos como una estructura de algoritmos en niveles para crear una red neuronal artificial capaz de aprender y tomar decisiones inteligentes por sí misma.

Esta tecnología nos abre numerosas posibilidades, desde mantener conversaciones en Chat GPT hasta plagiar la voz de alguien a partir de un audio de solo 15 segundos. Con estos dos ejemplos ya nos podemos imaginar algunos de los peligros que presenta la inteligencia artificial.

4 riesgos de la inteligencia artificial

En este artículo vamos a centrarnos en 4 de los principales riesgos de la inteligencia artificial. Podríamos considerar esta una clasificación que sirve como abanico a otros peligros y debemos tenerlos siempre presentes cuando hacemos uso de ella para evitar problemas mayores, incluso legales.

1. Privacidad

Aunque algunas aplicaciones de inteligencia artificial sean gratuitas, sabemos que siempre se paga de algún modo. Como sucede con las redes sociales, al final la plataforma se está nutriendo y saca beneficio gracias a la información que aportan las personas que la utilizan.

Los riesgos de escanear el iris: por qué es peligroso vender nuestros datos biométricos

Las tecnologías de inteligencia artificial manejan una gran cantidad de datos personales. Por eso muchas veces nos planteamos los posibles problemas relacionados con la privacidad. Si utilizamos nuestros datos personales en una herramienta de inteligencia artificial estos están en riesgo. Es una cuestión que puede afectar a uno mismo, pero también a terceros si, por ejemplo, utilizas datos de tus clientes para hacer una consulta.

2. No todo lo que dice es verdad

Cuando utilizamos una herramienta de este estilo podemos pedirle que nos resuelva casi cualquier cosa. A pesar de que nos va a dar una respuesta, los datos que nos dé no tienen por qué ser ciertos y hay que contrastarlos. En muchas ocasiones, son herramientas útiles para pedir esquemas o para inspirarnos en algún tema, pero nunca para pedir una solución final.

Aparte, hay casos en los que los sistemas de inteligencia artificial tienen un diseño que implica sesgos. Esto puede llevar a que sus respuestas incluyan prejuicios o incluso discriminación hacia grupos sociales.

3. Persuade

Relacionado con lo anterior, la inteligencia artificial es una tecnología que convence mucho y que puede dar textos interesantes para persuadir. El problema es que también puede tener este efecto sobre la persona que está utilizando la herramienta. Teniendo en cuenta que es una tecnología que puede incluir respuestas con prejuicios, discriminación y/o desinformación, esto es un riesgo que hay que tener en consideración.

4. No indica las fuentes

El hecho de que la inteligencia artificial no señale las fuentes es otro riesgo importante. Si no sabemos de dónde proviene la información que se nos está trasladando, no podemos ir al archivo original. Así, debemos contrastarlo todo siempre buscando los datos para ver cuál es la fuente y si es fiable.

Además, la falta de transparencia también aparece dentro del propio funcionamiento de la inteligencia artificial. Los sistemas de Deep learning son complejos y difíciles de entender e interpretar, por lo que hay mucha opacidad sobre cómo funcionan. Esto hace que los procesos de toma de decisiones de esta tecnología tengan todavía más interrogantes.

La necesidad de regular la inteligencia artificial

Quisimos destacar estos cuatro riesgos de la inteligencia artificial debido a los problemas a los que pueden derivar, especialmente en el ámbito profesional, y a que pueden conllevar contratiempos incluso legales. Con todo, también hay otro tipo de amenazas relacionadas con cuestiones más personales. Así pues, la inteligencia artificial puede implicar un desplazamiento laboral por la automatización o una dependencia excesiva de la tecnología.

Nuestras recomendaciones de uso de la inteligencia artificial

Partiendo de los riesgos señalados, queremos hacer unas recomendaciones de uso de la inteligencia artificial aplicables tanto a personas individuales en un oso privado como en el ámbito laboral, siendo este especialmente vulnerable.

Para empezar, no debes introducir datos personales ni identificativos, así como información confidencial. Uno de los riesgos más importantes es el de la privacidad, que puede derivar en problemas graves. Lo óptimo es hacer una anonimización de los datos y de las referencias, de manera que puedas emplear la inteligencia artificial sin ese riesgo.

También es importante eliminar el historial de consultas que hayas hecho en la plataforma. Es una forma de que la privacidad de los datos que aportas sea mayor, puesto que cuando das una información ésta se queda en la herramienta y nunca se sabe a dónde puede llegar.

Riesgos inteligencia artificial

Queremos incidir en la importancia de verificar la información proporcionada por la inteligencia artificial. Emplear datos incorrectos puede suponer un grave problema y es algo que sucede a menudo con estas tecnologías.

Hay ejemplos de malas prácticas profesionales derivadas de esto. Hace casi un año se conoció que un abogado estadounidense había empleado ChatGPT para un escrito y la tecnología se había inventado una serie de supuestos precedentes legales. El abogado destacó no tener intenciones de engañar al tribunal, aunque se expuso a posibles sanciones y, de hecho, fue multado finalmente con 5000$, aunque pudo ser mucho peor.

Cuando se trata del ámbito profesional lo mejor es establecer protocolos específicos. Estos deben tener siempre en cuenta los códigos deontológicos, pudiendo ser de normativa concreta o no. Muchas veces la deontología puede guiarnos y servirnos de base, aunque no esté referida a las nuevas tecnologías.

Tenemos que recordar que existen una serie de derechos ante la inteligencia artificial de los que ya hemos hablado en otros artículos. Están los derechos constitucionales, pero también legislación concreta como la protección de datos, la igualdad de trato y no discriminación o la propuesta de reglamento de la inteligencia artificial a nivel europeo.

Si tienes cualquier consulta relacionada con los riesgos de la inteligencia artificial, contacta con nuestro bufete de abogados en A Coruña. Nuestros profesionales especializados en derecho TIC estarán encantados de ayudarte.