La Forma Más Fácil de Desplegar LLMs Localmente en macOS

·

2 min read

Como todos saben, DeepSeek ha aumentado su popularidad recientemente. Después de su lanzamiento, rápidamente encabezó las listas de la App Store y Google Play. Sin embargo, esto ha venido acompañado de numerosos problemas. Los usuarios han descubierto que después de hacer solo dos o tres preguntas, reciben con frecuencia el mensaje "El servidor está ocupado, inténtelo de nuevo más tarde", lo que afecta significativamente la usabilidad y frustra a los usuarios en todas partes.

Actualmente, la solución más efectiva es la implementación local. Sin embargo, para algunos principiantes, la implementación local puede ser un proceso engorroso. Es posible que sigas muchos tutoriales y lo intentes numerosas veces, pero aún así no logres implementar correctamente un modelo grande.

Quiero compartir un método poco conocido y poco convencional que uso en el trabajo y que es increíblemente simple. Incluso los principiantes o aquellos sin experiencia en programación pueden aprenderlo rápidamente. Pero ten en cuenta que este método actualmente solo se aplica a los sistemas macOS; los usuarios de Windows no tienen suerte.

Por casualidad, descubrí que ServBay, que suelo usar para el desarrollo, se había actualizado. Su nueva versión es compatible con Ollama. Ollama es una herramienta centrada en ejecutar modelos de lenguaje grandes (LLM) localmente. Es compatible con modelos de IA conocidos como DeepSeek-Coder, Llama, Solar, Qwen y más.

Entonces, ¿entiendes lo que quiero decir? Esto significa que simplemente instalando ServBay, puedes habilitar estos modelos de IA preempaquetados y de uso común con un solo clic, y la velocidad de respuesta es bastante buena.

Originalmente, Ollama requería un proceso complejo para instalar e iniciar el servicio, pero a través de ServBay, solo se necesita un clic para iniciar e instalar el modelo de IA que necesitas, sin preocuparte por la configuración de las variables de entorno. Incluso los usuarios normales sin conocimientos de desarrollo pueden usarlo con un solo clic. Inicio y parada con un solo clic, descarga rápida de modelos multiproceso; siempre que tu macOS pueda manejarlo, ejecutar múltiples modelos de IA grandes simultáneamente no es un problema.

Descripción de la imagen

En mi computadora, la velocidad de descarga incluso superó los 60 MB por segundo, superando a todas las demás herramientas similares. Mira la captura de pantalla como prueba.

De esta manera, a través de ServBay y Ollama, puedo implementar DeepSeek localmente. ¡Mira, está funcionando sin problemas!

Descripción de la imagen

¡Mira! He logrado la libertad de DeepSeek con ServBay~

Descripción de la imagen

Por cierto, Si la UE planea prohibir DeepSeek, Sin embargo, al implementar localmente y usarlo sin conexión, ¿no sería...? Oh, por favor perdona mi imaginación salvaje, LOL...