Tecnología, Internet y juegos
22 meneos
49 clics

GitHub Copilot generó código inseguro en un 40% de los casos durante un experimento de la Universidad de Nueva York

GitHub anunció a finales de junio una sorprendente y polémica herramienta que permitía programar código recurriendo a la inteligencia artificial, autocompletando a partir de pequeños fragmentos proporcionados por el desarrollador. cinco investigadores de la Universidad de Nueva York han publicado un paper relatando la investigación que han llevado a cabo en las últimas semanas para poner a prueba la calidad y seguridad del código generado por Copilot. Aproximadamente el 40% de dichos programas incluían bugs o errores de diseño

| etiquetas: github , github copilot , inteligencia artificial , investigación , bugs
18 4 0 K 30
18 4 0 K 30

menéame