Comment installer DeepSeek localement sur Ubuntu 24.04
L’exécution de modèles de langage volumineux comme DeepSeek localement sur votre ordinateur est un moyen puissant d’explorer les capacités de l’IA sans dépendre des services cloud.
Dans ce guide, nous allons vous guider dans l’installation de DeepSeek à l’aide d’Ollama sur Ubuntu 24.04 et la configuration d’une interface utilisateur Web pour une expérience interactive et conviviale.
Qu’est-ce que DeepSeek et Ollama ?
- DeepSeek : Un modèle d’IA avancé conçu pour les tâches de traitement du langage naturel telles que répondre à des questions, générer du texte, etc.
- Ollama : une plateforme qui simplifie l’exécution de grands modèles de langage localement en fournissant des outils pour gérer et interagir avec des modèles comme DeepSeek.
- Web UI : Une interface graphique qui vous permet d’interagir avec DeepSeek via votre navigateur, ce qui le rend plus accessible et plus convivial.
Conditions préalables
Avant de commencer, assurez-vous d’avoir les éléments suivants :
- Ubuntu 24.04 installé sur votre machine.
- Une connexion Internet stable.
- Au moins 8 Go de RAM (16 Go ou plus sont recommandés pour des performances plus fluides).
- Connaissance de base du terminal.
Étape 1 : Installer Python et Git
Avant d’installer quoi que ce soit, c’est une bonne idée de mettre à jour votre système pour vous assurer que tous les paquets existants sont à jour.
sudo apt update && sudo apt upgrade -y
Ubuntu est probablement livré avec Python préinstallé, mais il est important de s’assurer que vous avez la bonne version (Python 3.8 ou supérieur).
sudo apt install python3
python3 --version
pip est le gestionnaire de paquets pour Python, et il est nécessaire pour installer les dépendances pour DeepSeek et Ollama.
sudo apt install python3-pip
pip3 --version
Git est essentiel pour cloner des dépôts à partir de GitHub.
sudo apt install git
git --version
Étape 2 : Installer Ollama pour DeepSeek
Maintenant que Python et Git sont installés, vous êtes prêt à installer Ollama pour gérer DeepSeek.
curl -fsSL https://ollama.com/install.sh | sh
ollama --version
Ensuite, démarrez et activez Ollama pour qu’il démarre automatiquement au démarrage de votre système.
sudo systemctl start ollama
sudo systemctl enable ollama
Maintenant qu’Ollama est installé, nous pouvons procéder à l’installation de DeepSeek.
Étape 3 : Téléchargez et exécutez le modèle DeepSeek
Maintenant qu’Ollama est installé, vous pouvez télécharger le modèle DeepSeek.
ollama run deepseek-r1:7b
Cela peut prendre quelques minutes en fonction de votre vitesse Internet, car le modèle a une taille de plusieurs gigaoctets.
Une fois le téléchargement terminé, vous pouvez vérifier que le modèle est disponible en exécutant :
ollama list
Vous devriez voir deepseek répertorié comme l’un des modèles disponibles.
Étape 4 : Exécuter DeepSeek dans une interface utilisateur Web
Bien qu’Ollama vous permette d’interagir avec DeepSeek via la ligne de commande, vous préférerez peut-être une interface Web plus conviviale. Pour cela, nous allons utiliser Ollama Web UI, une interface Web simple pour interagir avec les modèles Ollama.
Tout d’abord, créez un environnement virtuel qui isole vos dépendances Python de l’installation de Python à l’échelle du système.
sudo apt install python3-venv
python3 -m venv ~/open-webui-venv
source ~/open-webui-venv/bin/activate
Maintenant que votre environnement virtuel est actif, vous pouvez installer Open WebUI à l’aide de pip
.
pip install open-webui
Une fois installé, démarrez le serveur en utilisant.
open-webui serve
Ouvrez votre navigateur Web et accédez à http://localhost:8080
– vous devriez voir l’interface utilisateur Web Ollama.
Dans l’interface utilisateur Web, sélectionnez le modèle deepseek dans le menu déroulant et commencez à interagir avec celui-ci. Vous pouvez poser des questions, générer du texte ou effectuer d’autres tâches prises en charge par DeepSeek.
Vous devriez maintenant voir une interface de chat où vous pouvez interagir avec DeepSeek, tout comme ChatGPT.
Exécution de DeepSeek sur des plateformes cloud
Si vous préférez exécuter DeepSeek sur le cloud pour une meilleure évolutivité, des performances ou une facilité d’utilisation, voici quelques excellentes solutions cloud :
- Linode – Il fournit un hébergement cloud abordable et performant, où vous pouvez déployer une instance Ubuntu et installer DeepSeek à l’aide d’Ollama pour une expérience transparente.
- Google Cloud Platform (GCP) – Il offre de puissantes machines virtuelles (VM) avec prise en charge GPU, ce qui le rend idéal pour exécuter de grands modèles de langage comme DeepSeek.
Conclusion
Vous avez installé avec succès Ollama et DeepSeek sur Ubuntu 24.04. Vous pouvez désormais exécuter DeepSeek dans le terminal ou utiliser une interface utilisateur Web pour une meilleure expérience.