
Veterano La tormenta barrió los generales de inteligencia artificial. Aunque es conveniente usar Deepseek en su sitio web de alojamiento, sabemos que no hay lugar 127.0.0.1
Esencia Desolado

Sin embargo, con el reciente incidente, como El ataque de la red contra Deepseek AI ha detenido el registro de nuevos usuarioso Exposición a la base de datos de Deepseek AIEsto me hace querer saber por qué no más personas eligen ejecutar LLM localmente.
Ejecutar su IA localmente no solo puede hacer que controle completamente y una mejor privacidad, sino que también mantenga sus datos alejados de las manos de otras personas.
En esta guía, lo llevaremos a usar el Deepseek R1 en la máquina Linux Horama Como back -end y Abrir webui Como la parte delantera.
¡Vamos a colocarnos!
Desolado
La versión de Deepseek que ejecutará en el sistema local es la versión rayada de Deepseek real, y el «rendimiento es mejor que» ChatPPT. Necesitará gráficos NVIDIA/AMD en el sistema para ejecutarlo.
Paso 1: Instale Ollama
Antes de ingresar a Deepseek en sí, necesitamos un método para ejecutar efectivamente un modelo de lenguaje grande (LLM). Esto es Horama Adelante.
¿Qué es Ollama?
Ollama es una plataforma liviana y poderosa para LLM localmente. Simplifica la gestión del modelo para que pueda Descargar, ejecutar e interactuar con el modelo El menor problema.
La mejor parte? Abraza toda la complejidad, sin elementos de dependencia de configuración manual o configurando un entorno virtual.
Instalar Ollama
La forma más fácil de instalar Ollama es ejecutar los siguientes comandos en su terminal:
curl -fsSL | sh

Después de la instalación, verifique la instalación:
ollama --version
Ahora, sigamos corriendo con Deepseek HoramaEsencia
Paso 2: Instale y ejecute el modelo Deepseek
Instalar Ollama, tirar y ejecutar el modelo Deepseek es realmente simple, al igual que ejecutar este comando:
ollama run deepseek-r1:1.5b
Descarga este comando Deepseek-r1 1.5b modeloEste es un modelo de IA pequeño y poderoso, para la generación de texto, respondiendo preguntas, etc.
La descarga puede llevar algo de tiempo depende de su velocidad de Internet, porque estos modelos pueden ser muy grandes.

Después de descargar, puede interactuar con él inmediatamente en la terminal:

Pero honestamente, aunque el terminal es muy adecuado para pruebas rápidas, esta no es la experiencia más exquisita. Es mejor usar la interfaz de usuario web con Ollama. Aunque hay muchas de esas herramientas, prefiero Abrir webuiEsencia
12 Herramientas para proporcionar UI en línea para Ollama
¿No quieres interactuar con el modelo Ollama con Ollama? No se preocupe, tenemos algunas herramientas de interfaz de usuario web ordenadas, ¡puede usarlo para simplificarlo!

Paso 3: Establezca el webui abierto
Open WebUI proporciona una interfaz hermosa y amigable para el usuario que puede chatear con Deepseek. tener Dos formas Instale el webui abierto:
- Instale directamente (para aquellos a quienes les gusta la configuración tradicional)
- Instalación de Docker (mi método preferido personal)
No te preocupes, presentaremos los dos.
Método 1: Instalación directa
Si desea la instalación tradicional sin Docker, siga los pasos a continuación Abrir webui Manual.
Paso 1: Instale Python y Entorno virtual
Primero, asegúrese de instalar Python venv
Paquetes de software utilizados para crear un entorno aislado.
Ejecute el siguiente comando:
sudo apt install python3-venv -y

Esto se instala para administrar el paquete de software requerido para el entorno virtual.
Paso 2: crear un entorno virtual
A continuación, cree un entorno virtual en el catálogo principal:
python3 -m venv ~/open-webui-venv
Luego active el entorno virtual que acabamos de crear:
source ~/open-webui-venv/bin/activate

Notará el cambio de inmediato del terminal, lo que indica que está en el entorno virtual.
Paso 4: Instale y abra Webui
Al activar el entorno virtual, abra WebUI ejecutando e instalación:
pip install open-webui

Esto descargará e instalará una webui abierta y su dependencia.
Paso 5: Abra Webui
Para iniciar el servidor WebUI abierto, use el siguiente comando:
open-webui serve

Una vez que se inicia el servidor, debería ver que la salida confirmó que la apertura de WebUI se está ejecutando.
Paso 6: Visite Webui en su navegador
Abra su navegador de red, luego pase a:
Ahora verá la interfaz Webui Open, ¡puede comenzar a chatear con Deepseek Ai!
Método 2: instalación de Docker (favorito personal)
Si no ha instalado Docker, ¡no se preocupe! Vea cómo tenemos una guía de paso por paso Instale Docker en Linux sigue adelante.
Una vez que se resuelva el problema, vamos a abrir y ejecutar con Docker.
Paso 1: Abra la imagen Open Webui Docker
Primero, descargue la última imagen de inauguración de Webui desde Docker Hub:
docker pull ghcr.io/open-webui/open-webui:main

Este comando asegura que tenga la última versión de Open WebUI.
Paso 2: Abra Webui en el contenedor Docker
Ahora, girando los contenedores de webui abiertos:
docker run -d \
-p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
No tengas miedo de mirar ese gran dominio terrible. Esto es lo que realmente hace el comando:
Orden | explicar |
---|---|
docker run -d | Opere el contenedor en segundo plano (modo de separación). |
-p 3000:8080 | El puerto del mapa 8080 dentro del contenedor es de 3000 al puerto del host. Entonces estarás ahí http://localhost:3000 Esencia |
--add-host=host.docker.internal:host-gateway | Es útil permitir que el contenedor hable con el sistema de host, y es útil al ejecutar otros servicios con WebUI Open. |
-v open-webui:/app/backend/data | Cree un volumen de almacenamiento de larga duración llamado Open-Webui para preservar los registros históricos y la configuración del chat. |
--name open-webui | El nombre personalizado se asigna al contenedor para citar. |
--restart always | Si su sistema reinicia u abre el bloqueo de WebUI, puede asegurarse de que el contenedor se reinicie automáticamente. |
ghcr.io/open-webui/open-webui:main | Esta es una imagen abierta de Docker Webui extraída del Registro de contenedores GitHub. |

Paso 3: Visite Webui en su navegador
Ahora, abra su navegador de red y navegue a: Esencia

Una vez que hagas clic «Crear una cuenta de administrador», «» « Bienvenido a Open WebUI Interface.
Como no hemos agregado ningún otro modelos, el modelo Deepseek que descargamos anteriormente se ha cargado y preparado.

Solo por diversión, decidí probar Deepseek AI en el desafío. Yo pregunté: «Escriba un poema de rima con 20 palabras: computadora, inteligencia artificial, seres humanos, evolución, fatalidad, prosperidad».
Solo di … la respuesta es Un poco terrible. Desolado
Este es el poema completo escrito por Deepseek R1:

en conclusión
¡Ahí está ahí! En algunos pasos simples, puede usar Ollama y abrir WebUI para ejecutar Deepseek R1 localmente en las máquinas Linux.
Ya sea que elija la ruta Docker o la instalación tradicional, el proceso de configuración es muy simple y debe usarse en la mayoría de las distribuciones de Linux.
Por lo tanto, continúe avanzando, desafía a Deepseek a escribir otro poema extraño o trabajar duro para hacer cosas más prácticas. Este es tu juego, y la posibilidad es ilimitada.
Por ejemplo, recientemente corrí Deepseek R1 en Raspberry Pi 5. Aunque fue un poco lento, todavía completé mi trabajo.
Quién sabe, tal vez tu próximo desafío sea más creativo que mi desafío (aunque admito que los poemas sobre «Doom» y «Prosperity» son un poco espeluznantes! 😅).
¡Disfruta de tu nuevo asistente local de IA y que tengas un experimento feliz! Desolado