Mirando en dirección a delante: Los algoritmos de formación instintivo están de moda ahora, ya que se utilizan para originar cualquier tipo de contenido “innovador” posteriormente de acaecer sido entrenados en enormes conjuntos de datos preexistentes. Sin secuestro, las IA generadoras de código podrían programar un problema verdadero para la seguridad del software en el futuro.
Los sistemas de inteligencia sintético como GitHub Copilot prometen suministrar la vida de los programadores al crear fragmentos completos de código “nuevo” basado en entradas de texto en jerigonza natural y contexto preexistente. Pero los algoritmos de concepción de código asimismo pueden traer un delegado de inseguridad a la mesa, como descubrió recientemente un nuevo estudio que involucró a varios desarrolladores.
Mirando específicamente a Codex, la plataforma de IA desarrollada por OpenAI, que asimismo es el motor de creación de código del mencionado GitHub Copilot, el estudio reclutó a 47 desarrolladores diferentes. Desde estudiantes universitarios hasta profesionales experimentados, dichos desarrolladores tenían la tarea de usar Codex para resolver problemas relacionados con la seguridad en Python, JavaScript, C y otros lenguajes de programación de parada nivel.
Los investigadores dijeron que cuando los programadores tuvieron paso a Codex AI, el código resultante probablemente era incorrecto o inseguro en comparación con las soluciones “hechas a mano” concebidas por el congregación de control. Encima, los programadores con soluciones asistidas por IA tenían más probabilidades de sostener que su código inseguro era seguro en comparación con el congregación de control mencionado anteriormente.
Neil Perry, candidato a doctorado en Stanford y coautor principal del estudio, dijo que “los sistemas de concepción de código actualmente no reemplazan a los desarrolladores humanos”. Dichos desarrolladores podrían estar usando herramientas asistidas por IA para completar tareas fuera de sus propias áreas de especialización, o para acelerar una tarea de programación en la que ya son expertos. Entreambos deberían estar preocupados, dijo el autor del estudio, y siempre deberían repasar dos veces. el código generado.
Según Megha Srivastava, estudiante de posgrado de Stanford y segunda coautora del estudio, Codex es cualquier cosa menos inútil: a pesar de las deficiencias de la IA “estúpida”, los sistemas de concepción de código pueden ser bártulos cuando se emplean para tareas de bajo aventura. Encima, los programadores involucrados en el estudio no tenían una experiencia particular en asuntos de seguridad, lo que podría acaecer ayudado a detectar códigos vulnerables o inseguros, dijo Srivastava.
Los algoritmos de IA asimismo podrían ajustarse para mejorar sus sugerencias de codificación, y las empresas que desarrollan sus propios sistemas pueden obtener mejores soluciones con un maniquí que genera código más conforme con sus propias prácticas de seguridad. La tecnología de concepción de código es un avance “emocionante” con muchas personas ansiosas por usarla, dijeron los autores del estudio. Es solo que todavía queda mucho trabajo por hacer para encontrar soluciones adecuadas a las deficiencias de la IA.