Passer au contenu principal
Parfait pour : Les avocats, les médecins, les chercheurs en sécurité ou toute personne travaillant avec des données sensibles et ne souhaitant pas qu’elles quittent leur ordinateur.

L’inquiétude

Vous travaillez avec :
  • Informations confidentielles des clients
  • Dossiers médicaux
  • Données commerciales propriétaires
  • Documents financiers personnels
  • Recherche de sécurité
Et vous craignez d’envoyer ces données à des services d’IA cloud comme OpenAI ou Google, même s’ils prétendent qu’elles sont privées. La bonne nouvelle : Vous n’êtes pas obligé de le faire. Vous pouvez exécuter des modèles d’IA directement sur votre Mac.

Comment fonctionnent les modèles locaux

Au lieu d’envoyer vos données sur Internet, vous téléchargez un modèle d’IA sur votre Mac (comme si vous téléchargiez une grande application) et l’exécutez localement. Vos données ne quittent jamais votre ordinateur.

100% Private

Rien n’est envoyé vers le cloud. Vos données restent sur votre Mac.

Works Offline

Utilisez l’IA dans les avions, dans des installations sécurisées ou n’importe où sans Internet.

No API Costs

Une fois téléchargé, aucun frais d’utilisation. Analysez des milliers de documents gratuitement.

Faster for Big Files

Pas de temps de chargement/téléchargement. Idéal pour les documents volumineux.

Configuration : deux options simples

Option 1 : Ollama (Recommandé pour les débutants)

Ollama rend l’exécution de modèles locaux aussi simple que l’installation d’une application.
1

Install Ollama

  1. Téléchargez depuis [ollama.com] (https://ollama.com)
  2. Installez-le comme n’importe quelle application Mac
  3. Il s’exécute dans votre barre de menus
2

Download a model

Ouvrez Terminal et exécutez :
ollama pull llama3.1
Ceci télécharge le modèle Llama 3.1 de Meta (~ 4,7 Go). Autres bonnes options :
  • ollama pull mistral (plus rapide, plus petit)
  • ollama pull codellama (idéal pour le code)
  • ollama pull mixtral (plus performant, plus grand)
3

Connect to Alter

  1. Ouvrez Modifier → Paramètres (Cmd + ,)
  2. Accédez à l’onglet Clés API
  3. Sous Fournisseur personnalisé, sélectionnez Ollama.
  4. Assurez-vous qu’Ollama est en cours d’exécution (vérifiez votre barre de menu)
  5. Activez Activer le fournisseur personnalisé
4

Start using it

  1. Appuyez sur / dans la boîte de dialogue d’Alter.
  2. Recherchez la section Personnalisée
  3. Sélectionnez votre modèle local (par exemple, “llama3.1”)
  4. Demandez n’importe quoi – il fonctionne entièrement sur votre Mac !

Option 2 : LM Studio (Plus de contrôle)

LM Studio vous offre une interface graphique pour gérer les modèles.
1

Install LM Studio

Téléchargez depuis [lmstudio.ai] (https://lmstudio.ai) et installez-le.
2

Download a model

  1. Ouvrez LM Studio
  2. Parcourez le catalogue de modèles
  3. Téléchargez-en un qui correspond à vos besoins et aux spécifications de Mac
  4. Démarrez le serveur local (gros bouton “Démarrer le serveur”)
3

Connect to Alter

  1. Dans Modifier les paramètres → Clés API
  2. Sélectionnez LM Studio comme fournisseur
  3. LM Studio fonctionne sur localhost:1234 par défaut
  4. Activez Activer le fournisseur personnalisé

Exemple concret

Dr. Chen, médecin :
« J’ai besoin d’analyser les notes des patients à des fins de recherche, mais je ne peux pas utiliser l’IA cloud en raison de la loi HIPAA. Avec un modèle local, je peux demander : « Quels modèles voyez-vous dans ces symptômes ? » et bénéficiez de l’assistance de l’IA tout en gardant tout sur mon ordinateur portable sécurisé.”
Alex, chercheur en sécurité :
« J’analyse les rapports sur les logiciels malveillants et je ne peux les télécharger nulle part. L’exécution d’un modèle local signifie que je peux demander « Quels indicateurs de compromission sont mentionnés ? » sans risquer d’exposer les données.

Compromis à connaître

Modèles cloud : Plus rapides, plus performants Modèles locaux : Plus lent, mais complètement privéUn MacBook Pro doté de 16 Go de RAM peut faire fonctionner de petits modèles en douceur. Pour les modèles plus grands, vous aurez besoin de plus de 32 Go de RAM.
Les modèles locaux s’améliorent chaque mois, mais les modèles cloud (GPT-4, Claude) sont encore plus capables de raisonnement complexe.Meilleure approche : Utilisez des modèles locaux pour les données sensibles et des modèles cloud pour les tâches complexes moins sensibles.
Les modèles vont de 4 Go à 70 Go+. Assurez-vous de disposer de suffisamment d’espace disque.Bons modèles de démarrage :
  • Llama 3.1 8B (~ 4,7 Go) – Qualité rapide et décente
  • Mistral 7B (~4,1 Go) – Bon équilibre
  • Mixtral 8x7B (~ 26 Go) – Qualité supérieure, nécessite plus de RAM
## Bonnes pratiques pour les workflows privés
Utilisez des actions spécifiques pour les tâches sensibles : Créez des actions de modification configurées pour toujours utiliser votre modèle local. De cette façon, vous n’utiliserez jamais accidentellement un modèle cloud pour un travail sensible.
Configurez un espace de travail de confidentialité : Créez un espace de travail réservé aux documents sensibles. Cela les maintient organisés et vous rappelle d’utiliser des modèles locaux.
Vérifiez que cela fonctionne : Après la configuration, déconnectez-vous du WiFi et essayez d’utiliser Alter. Si cela fonctionne toujours avec votre modèle local, vous savez que c’est vraiment local.

Quand utiliser quoi

ScénarioRecommandation
Dossiers médicauxModèle local (Ollama/LM Studio)
Documents juridiquesModèle local
Recherche sur la sécuritéModèle local
Analyse financièreModèle local ou Alter Cloud avec plan Pro
Écriture créativeModèles cloud (meilleure créativité)
Questions généralesModèles cloud (plus rapides)
Aide au codageL’un ou l’autre fonctionne bien

Ressources associées


Prêt à devenir privé ? Commencez par Ollama et le modèle Llama 3.1. C’est gratuit, facile à configurer et vous bénéficierez d’une assistance IA qui ne quitte jamais votre Mac !