¿Los nuevos modelos «a prueba de jailbreak» de OpenAI? Hackeados el primer día

Colapsar
X
 
  • Filtrar
  • Tiempo
  • Mostrar
Limpiar Todo
nuevos mensajes
  • noSign
    Super Moderator
    • Dec
    • 4732

    ¿Los nuevos modelos «a prueba de jailbreak» de OpenAI? Hackeados el primer día

    Apenas unas horas después de lanzar sus primeros modelos de código abierto en años, con la promesa de medidas de seguridad robustas, el GPT-OSS de OpenAI ha sido descifrado por el famoso jailbreaker de IA Pliny the Liberator quien publicó capturas de pantalla que mostraban a los modelos dando instrucciones para fabricar meta, cócteles molotov, agente nervioso VX y malware. La compañía incluso lanzó un reto de 500.000 dólares para ayudar a descubrir nuevas vulnerabilidades. Pliny decidió publicar sus hallazgos en lugar de compartirlas con OpenAi


    Hours after OpenAI released its first open-weight models in years with claims of safety measures, AI jailbreaker Pliny cracked them open.
Trabajando...
X