Aunque la inteligencia artificial ha beneficiado a empresas y otras industrias, se considera que tiene algunos errores que pueden convertirse en un riesgo en cuanto al contenido que genera; para 2024, es necesario abordar estos desafíos al usar inteligencia artificial (IA).

ESET, compañía dedicada en detectar amenazas cibernéticas, advierte que, aunque el futuro es prometedor para cada uno de los campos donde la IA puede ser aplicada, existen riesgos vinculados a la adopción de esta tecnología.

«Estos riesgos incluyen desde la moderación del contenido que suben los usuarios, hasta aquel engañoso, sesgado o perjudicial para evitar la manipulación de información.”, dice David González Cuautle, Investigador de Seguridad Informática de ESET Latinoamérica.

Desafíos en la inteligencia artificial generativa

  1. Cuidar la moderación de contenidos
    Existen violaciones a los derechos de autor, aún cuando las redes sociales, sitios web o aplicaciones cuenten con términos de uso, normas de comunidad y políticas de privacidad.
  2. Poner atención a las leyes de derechos de autor e imagen
    En mayo de 2023, se reprodujo contenido sin consentimiento de actores y actrices al utilizar su rostro y voz para fines comerciales. Los derechos de autor fueron ignorados por grandes compañías y se generó una enorme molestia; que fue uno de los desencadenantes de la Huelga de Actores y Guionistas.
  3. Proteger la privacidad de sus usuarios
    La inteligencia artificial se entrena con grandes volúmenes de datos, y puede tomarlos desde cualquier fuente pública, sin el consentimiento del titular. Según ESET, las plataformas, aplicaciones y redes sociales deberían apegarse al marco normativo sobre la privacidad de datos de cada país, en caso de existir; también es necesario seguir el Reglamento General de Protección de Datos (GDPR, por sus siglas en inglés), que incluye una sección para la IA.
  4. Generar soluciones éticas
    Usuario pueden aprovechar a la inteligencia artificial para fines antiéticos, como la suplantación de la identidad (en voz, imagen o video), para crear perfiles falsos que se usan para fraudes, extorsiones, phishing o catfishing en plataformas y redes sociales.
  5. Impedir la desinformación
    Las prácticas de difusión de noticias falsas y la generación de datos y contenido históricamente incoherente es un tema que genera preocupación. Cuando el contenido engañoso se hace viral, llega a perjudicar la imagen de alguna persona, comunidad, país, gobierno o empresa, lo que puede generar confusión y sesgos.

ESET afirma que es necesario promover la educación pública sobre inteligencia artificial, sus riesgos, beneficios y desafíos para comprender cómo funcionan estos modelos.

Además, insta a desarrollar modelos de filtrado y moderación que pueden eliminar contenido inapropiado, engañoso o sesgos generado por la IA.

Otra acción importante es entrenar a los modelos de datos de manera ética, para reducir sesgos y generar contenido más equitativo. Además, asegura que implementar mecanismos de evaluación continua generará mayor contenido ético y de calidad.

Shares: