22 febrero 2021
La repercusión mediática del anuncio de Cruzcampo “Con mucho acento” reviviendo a Lola Flores, ha regenerado la polémica sobre las posibilidades de la inteligencia artificial, y, en concreto, la tecnología “DEEPFAKE”. No solo han sido comentarios de asombro sino también el origen de reflexiones éticas sobre la utilización de imágenes de fallecidos o la influencia en procesos electorales.
Se conoce como “DEEPFAKE” a un bulo creado mediante inteligencia artificial (IA). El nombre proviene de “Deep Learning”, lo que parece ser la evolución natural del “Machine Learning”, el aprendizaje asistido por humanos que establecen los parámetros bien/mal y en el que la acción del hombre es muy necesaria. Por el contrario, en el “Deep Learning” se utilizan estructuras lógicas (redes neuronales) que se asemejan al sistema nervioso de los mamíferos. El uso más frecuente de los “deepfakes” es manipular vídeos, extrayendo parte del código fuente e insertando nuevo código que recrea lo que se desea mostrar. Han sido muy famosos algunos vídeos tratados con este sistema en el que aparece un personaje con el rostro de otro que aparentemente incluso vocaliza siguiendo la fonética del discurso.
Teniendo en cuenta la neutralidad moral de la tecnología y la utilización negativa de ésta por el ser humano, ¿es descartable su uso como generadora de “realidades” paralelas-virtuales para desacreditar a una empresa competidora? En una época donde aún impera la doctrina del neoliberalismo y la posibilidad de encargar estas actuaciones a empresas en países opacos de difícil rastreo, la respuesta a esa pregunta la podríamos encontrar recordando a Thomas Hobbes: “Homo hominis Lupus”.
A modo de ejemplo, Facebook anunció en enero de 2020 una prohibición de “deepfakes” de caras para las elecciones en EEUU (exceptuando el uso satírico o de parodia) o la creación de la tecnología “Deepfake Detection Challange” con una inversión de más de 10 millones de dólares. La red social abrió un concurso facilitando a los participantes 100.000 vídeos para que sus algoritmos (más de 35.000 presentados) detectaran los vídeos falsos. El mejor de estos algoritmos es capaz de “acertar” en la detección en un 65% de las ocasiones, según informa Europa Press. El País, por su parte, en la sección de tecnología, comentaba hace poco que Facebook ha prohibido durante las pasadas elecciones la utilización de “deepfakes”, excepto en casos de parodia.
Ante semejante próximo panorama y, sin una legislación específica al respecto, en España esta problemática es abordable desde diferentes ramas del Derecho, pero en ningún caso se sancionaría a la tecnología sino a la intención de dañar el bien jurídico contra el que atentan. Convendría pues que las empresas reflexionasen sobre cómo podrían afectar estas situaciones a su capital reputacional, activos intangibles y ciberseguridad. Una campaña de difamación de tu marca mediante videos de “deepfakes” podría suponer un grave problema para la compañía y, teniendo en cuenta que el proceso para demostrar su falsedad requiere de unos tiempos que no suelen ser breves por la proverbial lentitud de la justicia y la alta velocidad de transmisión de las noticias en las RRSS, los riesgos económicos y reputacionales son muy elevados. La misma situación podría suceder con la suplantación de personalidad y las infracciones relativas a la LOPD en las empresas B2C que mantienen con sus clientes en promociones o clubs de fans.
¿Qué protocolos resultarían útiles para actuar ante estas amenazas? ¿De qué herramientas y mecanismos legales se dispone? Como siempre recomendamos, más vale prevenir. Siguiendo esta línea de reflexión, algunos pasos iniciales podrían ser:
- Adopción de tecnologías de detección de estos fraudes.
- Registro de marcas, patentes y diseños de la compañía. Cabe recordar que los derechos de exclusiva en el tráfico económico se adquieren a través de estas tres modalidades.
- Registros de propiedad intelectual, o al menos, mecanismos de prueba tales como documentos públicos, actas notariales y similares. Pueden ser útiles mecanismos como “blockchain” que permiten obtener una fecha fehaciente de creación.
- Medidas de ciber-resiliencia: las falsificaciones profundas pueden imitar datos biométricos con las repercusiones tanto para los empleados (incluyendo altos directivos) como para los clubs de usuarios de las empresas. A ello se debería añadir una buena implementación de la política relativa a la LOPD, e incluso una modificación de esta por parte de las autoridades para contemplar duras sanciones que utilicen este tipo de falsificaciones.
- Sistemas de vigilancia / eliminación de anuncios falsos en el entorno on-line.
- Monitorización en la red del uso y la presencia de la marca y demás derechos protegidos.
- Sistemas de gestión de la reputación on-line.
- Aplicación de protocolos de actuación basados en la Ley Orgánica 1/82 de Protección Civil del Derecho al Honor, intimidad Personal y Familiar y a la Propia Imagen, y modificación de la misma por las autoridades para perseguir con claridad este tipo de bulos.
Estas solo son unas sugerencias ante un posible escenario que aún no ha llegado al mundo empresarial pero que no cabe descartar en un futuro no muy lejano.
Comentarios
No hay comentarios