Jan v0.6.6 ya está disponible: Jan ahora funciona completamente en llama.cpp.
- Cortex se ha ido, los modelos locales ahora funcionan en llama.cpp - Alternar entre modelos locales y de OpenAI - Soporte experimental para modelos cuantizados
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
14 me gusta
Recompensa
14
5
Compartir
Comentar
0/400
ZKProofster
· hace19h
implementación técnicamente decente. aún se necesitan pruebas de compromiso vectorial para una confianza total
Ver originalesResponder0
GasGrillMaster
· 07-31 16:41
¿Qué es esto? ¿Se puede asar carne?
Ver originalesResponder0
0xLuckbox
· 07-31 16:40
Finalmente se puede ejecutar localmente.
Ver originalesResponder0
GasWaster
· 07-31 16:36
finalmente un interruptor que no me costará 200 gwei para activar smh
Jan v0.6.6 ya está disponible: Jan ahora funciona completamente en llama.cpp.
- Cortex se ha ido, los modelos locales ahora funcionan en llama.cpp
- Alternar entre modelos locales y de OpenAI
- Soporte experimental para modelos cuantizados