La codificación por vibraciones amenaza la seguridad del software
Un tercio de las organizaciones generó más del 60% de su código con IA en 2024. Los desarrolladores usan cada vez más código generado por inteligencia artificial, lo que introduce riesgos de seguridad similares o mayores a los del código abierto.
Pérdida de control en el desarrollo
La codificación por vibraciones permite a los desarrolladores crear código rápidamente, pero complica la seguridad de la cadena de suministro de software. Alex Zenla, de Edera, advierte que la IA está perdiendo su periodo de gracia en seguridad y puede reintroducir vulnerabilidades antiguas o generar nuevas.
Falta de transparencia y auditoría
El código de IA no es transparente. A diferencia de repositorios como GitHub, no existe la misma trazabilidad sobre su origen o si ha sido auditado por un humano. Dan Fernández, de Edera, señala la falta de mecanismos de responsabilidad.
Complicaciones más allá del código abierto
Eran Kinsbruner, de Checkmarx, explica que cada salida de un modelo de lenguaje grande es ligeramente diferente. Esto introduce una complicación adicional, ya que dos desarrolladores obtienen resultados distintos para la misma tarea, fragmentando el proceso.
Impacto desproporcionado
La facilidad de uso de estas herramientas crea exposición de seguridad en situaciones de riesgo. Zenla alerta de que las implicaciones de seguridad afectarán de forma desproporcionada a quienes menos pueden permitírselo, como pequeñas empresas o poblaciones vulnerables.
Un problema que ya está aquí
El material generado por IA ya existe en las bases de código. Jake Williams, de Hunter Strategy, insta a aprender de los avances en seguridad del código abierto para evitar consecuencias negativas.
Antecedentes: La eficiencia con un coste
Los desarrolladores no escriben cada línea de código desde cero, sino que utilizan bibliotecas existentes, a menudo de código abierto, para ser más eficientes. Este enfoque, aunque práctico, puede crear exposición y falta de visibilidad en el software.
Cierre: Un futuro por definir
La generalización del código generado por IA plantea desafíos críticos de seguridad y trazabilidad. La industria se enfrenta a la necesidad de establecer controles y auditorías robustas para un desarrollo de software que ya depende significativamente de la inteligencia artificial.