El Reino Unido y Estados Unidos, junto con socios internacionales de otros 16 países, han publicado nuevas directrices para el desarrollo de sistemas seguros de inteligencia artificial (IA).

“La estrategia se centra en salvaguardar los resultados de seguridad para nuestros clientes, adoptando una transparencia y responsabilidad sin igual, y estableciendo estructuras organizativas donde el diseño seguro se sitúa como máxima prioridad”, declaró la Agencia de Seguridad de Infraestructura y Ciberseguridad de EE. UU. (CISA).

El propósito es elevar los estándares de seguridad cibernética en inteligencia artificial y contribuir a garantizar que la tecnología se desarrolle, diseñe e implemente de forma segura, según señaló el Centro Nacional de Seguridad Cibernética (NCSC).


“Las directrices se fundamentan en los esfuerzos continuos del gobierno de EE. UU. para gestionar los riesgos inherentes a la inteligencia artificial. Esto implica la garantía de rigurosas pruebas antes del lanzamiento público de nuevas herramientas, la implementación de barreras de seguridad para abordar problemas sociales como el sesgo y la discriminación, así como preocupaciones sobre la privacidad. Además, se busca establecer métodos sólidos que permitan a los consumidores identificar el contenido generado por IA.

Este conjunto de normas fue elaborado por el NCSC y la Agencia de Seguridad de Infraestructura y Ciberseguridad de EE.UU. (CISA), en colaboración con expertos del sector de la IA y otras 21 agencias y ministerios internacionales.

Mas informacion sobre “Directrices para el desarrollo seguro de sistemas de IA”

https://www.ncsc.gov.uk/collection/guidelines-secure-ai-system-development

Los compromisos también requieren que las empresas se comprometan a facilitar la detección y notificación de vulnerabilidades en sus sistemas de inteligencia artificial por parte de terceros, a través de un sistema de recompensas por errores, para garantizar una pronta identificación y solución.

Según el NCSC, estas últimas directrices “ayudan a los desarrolladores a asegurar que la ciberseguridad sea una condición esencial desde el inicio hasta el final del proceso de desarrollo del sistema de IA, en un enfoque conocido como ‘seguro por diseño'”. Esto abarca el diseño, desarrollo, implementación, operación y mantenimiento seguros, abordando todas las áreas críticas a lo largo del ciclo de vida del sistema de IA. Esto requiere que las organizaciones modelen las amenazas a sus sistemas y salvaguarden sus cadenas de suministro e infraestructuras.”

“Las agencias destacaron que su objetivo es contrarrestar los ataques adversarios dirigidos a sistemas de inteligencia artificial y aprendizaje automático (ML), con la intención de inducir comportamientos no deseados de diversas maneras. Esto incluye afectar la clasificación de un modelo, permitir acciones no autorizadas por parte de los usuarios y extraer información confidencial.

“Existen múltiples métodos para lograr estos efectos, como ataques de inyección rápida en el dominio del modelo de lenguaje grande (LLM) o la corrupción deliberada de datos de entrenamiento y comentarios de usuarios, también conocida como ‘intoxicación de datos'”, explicó el NCSC.”

¿LA “IA” ES BUENA O MALA?

La evaluación moral de la inteligencia artificial (IA) como buena o mala es compleja y depende de diversos factores, incluyendo cómo se desarrolla, implementa y utiliza.

La IA en sí misma no tiene una moral intrínseca; más bien, su impacto ético está determinado por las decisiones de diseño y las acciones de quienes la crean y utilizan.

Aspectos positivos de la inteligencia artificial:

  • Eficiencia: La IA puede mejorar la eficiencia en diversas tareas, automatizando procesos repetitivos y permitiendo que los humanos se centren en actividades más creativas y estratégicas.
  • Avances en la Medicina: La IA se utiliza en la investigación médica para análisis de datos, diagnósticos más precisos y desarrollo de tratamientos personalizados.
  • Asistencia a la Toma de Decisiones: En algunos casos, la IA puede proporcionar análisis objetivos y datos para apoyar la toma de decisiones.
  • Innovación Tecnológica: La IA impulsa avances en campos como la robótica, la realidad virtual y aumentada, y la automatización industrial.

Aspectos negativos de la inteligencia artificial:

  • Desplazamiento Laboral: La automatización impulsada por la IA puede llevar a la pérdida de empleos en ciertos sectores, lo que plantea preocupaciones sobre el desplazamiento laboral.
  • Sesgo y Discriminación: Si los conjuntos de datos utilizados para entrenar modelos de IA contienen sesgos, la IA puede reflejar y perpetuar esas parcialidades, lo que lleva a resultados discriminatorios.
  • Privacidad: El uso extensivo de la IA para recopilar y analizar datos puede plantear preocupaciones sobre la privacidad y el acceso no autorizado a información personal.
  • Seguridad: La IA también presenta desafíos en términos de ciberseguridad, ya que los sistemas de IA pueden ser vulnerables a ataques y manipulación.

La valoración ética de la inteligencia artificial requiere un enfoque equilibrado que considere tanto los beneficios potenciales como los riesgos asociados. La adopción responsable y ética de la IA implica el establecimiento de marcos legales y éticos, así como la supervisión continua de su desarrollo y aplicación.

fuente:thehackernews