edición general
270 meneos
6509 clics
Un usuario engaña a ChatGPT en Bing para obtener documentos internos de Microsoft: se filtran todas sus directrices

Un usuario engaña a ChatGPT en Bing para obtener documentos internos de Microsoft: se filtran todas sus directrices

Con el nombre en clave "Sidney", Bing, o más concretamente ChatGPT, ha sido víctima de un ataque de "inyección de prompt". Este tipo de ataques consisten en engañar a una inteligencia artificial introduciendo un input malicioso o contradictorio con el fin de realizar una tarea que no forma parte del objetivo inicial de la IA.

| etiquetas: chatgpt , bing , microsoft

menéame