
garak
Comprobar si es posible hacer que el LLM falle de una forma que no queremos. garak
Detecta alucinaciones, filtración de datos, inyección instantánea, mensajes de error, generación de veneno, jailbreak y muchas otras vulnerabilidades. si lo sabes nmap
o msf
/ Metasploit Framework, garak hace algo similar a ellos, pero para LLM.
garak
Concéntrese en los métodos que hacen que el LLM o los sistemas de diálogo fallen. Combina sondas estáticas, dinámicas y adaptativas para explorar esto.
garak
es una herramienta gratuita. Nos encantó desarrollarlo y siempre estamos interesados en agregar funciones para admitir aplicaciones.
empezar
> ¡Vea nuestra guía de usuario! archivo.garak.ai
> ¡Únete a nuestro Discord!
> Enlace del proyecto y página de inicio: garak.ai
> Twitter: @garak_llm
> ¡DEF CON PRESENTACIÓN DE DIAPOSITIVAS!
Soporte de Maestría en Derecho
Actualmente soporta:
- Adoptando modelos generativos del centro facial
- Copiar modelo de texto
- API abierta Modelo de chat y continuación.
- letelm
- Casi cualquier cosa a la que se pueda acceder a través de REST
- A la modelo guf le gusta camello.cpp Versión >= 1046
- ..y muchos más LL.M.s!
Instalar:
garak
Es una herramienta de línea de comandos. Está desarrollado en Linux y OSX.
Instalación estándar pip
Simplemente consíguelo de PyPI y listo:
python -m pip install -U garak
Instalar la versión de desarrollo pip
python -m pip install -U git+
Para obtener más información, haga clic aquí.