La IA bajo la lupa: Los peligros que no podemos ignorar

La IA bajo la lupa: Los peligros que no podemos ignorar

Por Manuel Filomeno

La inteligencia artificial (IA) es uno de los grandes logros de la humanidad y la culminación de más de 50 años de esfuerzos y avances tecnológicos; sin embargo, esta nueva herramienta no está exenta de riesgos, como la desinformación o los ciberataques avanzados.

Como ocurre con cualquier herramienta tecnológica, la IA puede ser utilizada para el bien o para el mal y los delincuentes pueden usarla para cometer crímenes, como la extorsión, por ejemplo.

“Sí, es posible utilizar la inteligencia artificial (IA) para realizar extorsiones, pero no es necesariamente fácil de hacerlo”, indica Marcelo Pacheco, director de la carrera de Ingeniería de Sistemas de la Universidad Franz Tamayo, Unifranz.

Pacheco agrega que un ejemplo es el uso de los deepfakes (falsificaciones profundas), que son vídeos manipulados mediante la IA para hacer que una persona parezca decir o hacer algo que no ha hecho en realidad. Otro, es el uso de bots (robots) conversacionales (chatbots) para realizar estafas.

“Los bots pueden ser programados para hacer preguntas y ofrecer información engañosa o persuasiva para que las personas entreguen información personal o realicen pagos”, puntualiza.

Recientemente, el Instituto de Tecnología de Massachusetts (MIT) recopiló en un repositorio más de 777 riesgos asociados con la IA, los cuales están catalogados en siete áreas clave. 

El repositorio, disponible en la página web https://airisk.mit.edu/ proporciona una base de datos detallada y categorizada para abordar la falta de un entendimiento común sobre los riesgos de la IA.

¿Cuáles son los riesgos de la IA según el MIT?

Se realizó una primera clasificación de los riesgos de inteligencia artificial mediante una Taxonomía de Riesgos de IA por Dominio. Esta clasificación identifica siete áreas clave:

1. Discriminación y toxicidad

Se refiere a cómo los modelos de inteligencia artificial pueden perpetuar estereotipos sociales y fomentar la discriminación injusta. 

Esto sucede cuando dichos modelos reproducen o amplifican lenguaje discriminatorio, creando desigualdades en el trato o en el acceso a recursos basadas en características sensibles como el sexo, la religión, el género, la orientación sexual, la capacidad y la edad.

2. Privacidad y seguridad

La generación de contenido por parte de los modelos de inteligencia artificial que puede incluir información personal sensible, un fenómeno conocido como filtración de privacidad. Esta situación puede resultar en la exposición no autorizada de datos privados.

3. Desinformación

Estos daños incluyen la propagación de desinformación, contaminación, agotamiento de recursos, enfermedades mentales o injusticias, afectando negativamente a la sociedad.

4. Actores malintencionados y uso indebido

Hace referencia al riesgo de que la inteligencia artificial sea utilizada por personas o grupos con intenciones dañinas para causar perjuicio a gran escala.

5. Interacción humano-computadora

MIT examina los riesgos asociados con la influencia negativa de la inteligencia artificial sobre los usuarios. Si un modelo de lenguaje (LM) promueve comportamientos o puntos de vista éticamente cuestionables, podría incentivar a los usuarios a realizar acciones perjudiciales que no habrían contemplado por sí mismos.

Este problema es particularmente alarmante cuando la IA se percibe como una autoridad o asistente confiable, ya que puede inducir a comportamientos dañinos sin que el usuario tuviera esa intención inicial.

6. Daños socioeconómicos y ambientales

La categoría, daños socioeconómicos y ambientales, se refiere al impacto negativo de la inteligencia artificial en la sostenibilidad y el medio ambiente.

7. Seguridad, fallos y limitaciones de los sistemas de IA

La seguridad, fallos y limitaciones de los sistemas de IA, puede producir riesgos asociados con ataques que explotan vulnerabilidades en la inteligencia artificial para maximizar el consumo de energía y afectar el rendimiento del sistema.

¿Una regulación de la IA evitaría su mal uso?

Debido a los posibles riesgos y desafíos que representa el uso de la IA para la sociedad, tanto actualmente como en el futuro, hay una imperiosa necesidad de una regulación ética y responsable.

Existen diferentes enfoques para regular la IA. Algunos países, por ejemplo, han establecido políticas y marcos regulatorios específicos para la IA, mientras que otros están considerando nuevas regulaciones o adaptando las ya existentes. En líneas generales, la regulación de la IA se centra en la transparencia, la responsabilidad y la ética.

William Llanos Torrico, docente de la materia de Derecho Informático en la Universidad Franz Tamayo, Unifranz, sostiene que el delito informático implica actividades criminales que los países han tratado de encuadrar en figuras típicas de carácter tradicional como robos, hurtos, fraudes, falsificaciones, estafas o sabotajes.

Sin embargo, la utilización de las técnicas informáticas ha creado nuevas posibilidades del uso indebido de las tecnologías, lo que demanda la necesidad de mayor regulación por parte del Derecho.

El impacto de las nuevas tecnologías está dando lugar a profundas transformaciones y el derecho debe responder ante estas nuevas relaciones.  

Compartilhe

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *