Objetividad en riesgo: La IA puede suplantar voces y ser presentadas en un juicio

Objetividad en riesgo: La IA puede suplantar voces y ser presentadas en un juicio

Las notas de voz se convirtieron en un recurso común en los juicios orales, pero su objetividad quedó cuestionada con la aparición de la Inteligencia Artificial (IA). La nueva tecnología tiene la capacidad de clonar voces, generar audios falsos y genera serias preocupaciones sobre la autenticidad y confiabilidad de estas pruebas. Expertos en la materia advierten que no se cuenta con los protocolos ni los equipos para verificar si son reales.

“El ser humano construye instrumentos para alcanzar una meta, pero cuando se distorsiona e intenta manipular el sistema afecta una investigación. Más aun tomando en cuenta que en Bolivia no se cuenta con la tecnología necesaria para poder trabajar (e identificar la autenticidad) de este tipo de pruebas”, afirma Lourdes del Pilar Diaz, docente de Unifranz El Alto y exdirectora nacional de la Fiscalía Especializada en Delitos en Razón de Genero y Juvenil; y Fiscal de Materia en el departamento de La Paz.

La tecnología actual permite, no solo imitar voces, sino generar diálogos convincentes y contextualizados. Esto podría llevar a la fabricación de pruebas falsas que sean difíciles de detectar. La experta lamentó que, hasta la fecha, el país no tenga un protocolo para el manejo de las grabaciones de voz. En este momento, los demandantes deben enviar las pruebas de voz a otros países para que se les realice una pericia y tengan un valor en el proceso que siga adelante.

Según expertos en seguridad digital y ética tecnológica, esta creciente amenaza plantea interrogantes fundamentales sobre la validez y la integridad del sistema judicial. Las pruebas de audio, que una vez se consideraron confiables, ahora deben ser examinadas minuciosamente a través de peritajes especializados para determinar si han sido manipuladas con IA. La rapidez con la que se están desarrollando estas tecnologías hace que el desafío sea aún más urgente.

Para que una grabación de audio pueda ser tomada en cuenta dentro de un juicio, debe seguir los procedimientos regulares en la presentación de pruebas documentales como la solicitud formal y debida fundamentación. Esta puede ser admitida o rechazada por el tribunal y esta decisión se basa en la legalidad, pertinencia y admisibilidad de las pruebas según las leyes y regulaciones.

La experta agrega que, en estos casos, es recomendable aportar una pericial de audio que confirme que la grabación de voz o conversación no fue manipulada o cortada, pues de este modo se previene un rechazo de la parte afectada.

“Valerse de una pericial de audio es una buena manera de evitar que se cuestione la manipulación de la conversación grabada. Todo esto es viable siempre y cuando exista un buen conocimiento de la normativa y de todo nuestro ordenamiento jurídico, tomando en cuenta que aún existen vacíos legales en este tema”, argumentó la letrada.

Para los especialistas, la posibilidad de manipular pruebas de audio utilizando IA supone una amenaza real para la justicia, ya que las voces de testigos, víctimas y acusados podrían ser alteradas con fines maliciosos, poniendo en riesgo la búsqueda de la verdad y la equidad en los juicios.

Ante esta preocupante realidad, los expertos en derecho y tecnología plantean la necesidad de implementar salvaguardias y protocolos rigurosos para verificar la autenticidad de las pruebas de audio presentadas en los tribunales. Sostienen que se requiere una comprensión profunda de las capacidades actuales de la IA y un esfuerzo conjunto para desarrollar métodos de detección de manipulación de voz cada vez más sofisticados.

Compartir

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *