Zum Hauptinhalt springen
Perfekt für: Anwälte, Ärzte, Sicherheitsforscher oder alle, die mit sensiblen Daten arbeiten und nicht möchten, dass diese ihren Computer verlassen.

Die Sorge

Sie arbeiten mit:
  • Vertrauliche Kundeninformationen
  • Krankenakten
  • Proprietäre Geschäftsdaten
  • Persönliche Finanzdokumente
  • Sicherheitsforschung
Und Sie haben Bedenken, diese Daten an Cloud-KI-Dienste wie OpenAI oder Google zu senden, selbst wenn diese behaupten, es sei privat. Die gute Nachricht: Das ist nicht nötig. Sie können KI-Modelle direkt auf Ihrem Mac ausführen.

Wie lokale Modelle funktionieren

Anstatt Ihre Daten an das Internet zu senden, laden Sie ein KI-Modell auf Ihren Mac herunter (wie das Herunterladen einer großen App) und führen es lokal aus. Ihre Daten verlassen niemals Ihren Computer.

100% Private

Es wird nichts an die Cloud gesendet. Ihre Daten bleiben auf Ihrem Mac.

Works Offline

Nutzen Sie KI in Flugzeugen, in sicheren Einrichtungen oder an jedem Ort ohne Internet.

No API Costs

Nach dem Herunterladen fallen keine Gebühren pro Nutzung an. Analysieren Sie kostenlos Tausende von Dokumenten.

Faster for Big Files

Keine Upload-/Download-Zeit. Ideal für große Dokumente.

Einrichtung: Zwei einfache Optionen

Option 1: Ollama (empfohlen für Anfänger)

Mit Ollama ist die Ausführung lokaler Modelle so einfach wie die Installation einer App.
1

Install Ollama

  1. Herunterladen von ollama.com
  2. Installieren Sie es wie jede andere Mac-App
  3. Es wird in Ihrer Menüleiste ausgeführt
2

Download a model

Öffnen Sie das Terminal und führen Sie Folgendes aus:
ollama pull llama3.1
Dadurch wird Metas Llama 3.1-Modell (~4,7 GB) heruntergeladen. Weitere gute Optionen:
  • ollama pull mistral (schneller, kleiner)
  • ollama pull codellama (ideal für Code)
  • ollama pull mixtral (leistungsstärker, größer)
3

Connect to Alter

  1. Öffnen Sie Alter → Einstellungen (Cmd + ,)
  2. Gehen Sie zur Registerkarte API-Schlüssel
  3. Wählen Sie unter Benutzerdefinierter Anbieter die Option Ollama aus.
  4. Stellen Sie sicher, dass Ollama ausgeführt wird (überprüfen Sie Ihre Menüleiste).
  5. Schalten Sie Benutzerdefinierten Anbieter aktivieren auf EIN
4

Start using it

  1. Drücken Sie / im Eingabeaufforderungsfeld von Alter
  2. Suchen Sie nach dem Abschnitt Benutzerdefiniert
  3. Wählen Sie Ihr lokales Modell (z. B. „llama3.1“)
  4. Fragen Sie alles – es läuft vollständig auf Ihrem Mac!

Option 2: LM Studio (Mehr Kontrolle)

LM Studio bietet Ihnen eine grafische Oberfläche zum Verwalten von Modellen.
1

Install LM Studio

Laden Sie es von lmstudio.ai herunter und installieren Sie es.
2

Download a model

  1. Öffnen Sie LM Studio
  2. Durchsuchen Sie den Modellkatalog
  3. Laden Sie eines herunter, das Ihren Anforderungen und den Mac-Spezifikationen entspricht
  4. Starten Sie den lokalen Server (große Schaltfläche „Server starten“)
3

Connect to Alter

  1. Unter Einstellungen ändern → API-Schlüssel
  2. Wählen Sie LM Studio als Anbieter aus
  3. LM Studio läuft standardmäßig auf localhost:1234
  4. Schalten Sie Benutzerdefinierten Anbieter aktivieren auf EIN

Beispiel aus der Praxis

Dr. Chen, Arzt:
„Ich muss Patientennotizen für Forschungszwecke analysieren, kann aber aufgrund von HIPAA keine Cloud-KI verwenden. Mit einem lokalen Modell kann ich fragen: „Welche Muster sehen Sie in diesen Symptomen?“ und KI-Unterstützung erhalten, während alles auf meinem sicheren Laptop bleibt.“
Alex, Sicherheitsforscher:
„Ich analysiere Malware-Berichte und kann sie nirgendwo hochladen. Wenn ich ein lokales Modell verwende, kann ich fragen: ‚Welche Indikatoren für eine Kompromittierung werden erwähnt?‘ ohne die Offenlegung von Daten zu riskieren.“

Kompromisse, die Sie kennen sollten

Cloud-Modelle: Schneller, leistungsfähiger Lokale Modelle: Langsamer, aber völlig privatEin MacBook Pro mit 16 GB RAM kann kleine Modelle flüssig betreiben. Für größere Modelle benötigen Sie mehr als 32 GB RAM.
Lokale Modelle werden von Monat zu Monat besser, aber Cloud-Modelle (GPT-4, Claude) sind immer noch besser für komplexe Überlegungen geeignet.Bester Ansatz: Verwenden Sie lokale Modelle für sensible Daten und Cloud-Modelle für weniger sensible komplexe Aufgaben.
Die Modelle reichen von 4 GB bis 70 GB+. Stellen Sie sicher, dass Sie über ausreichend Speicherplatz verfügen.Gute Einsteigermodelle:
  • Llama 3.1 8B (~4,7 GB) – Schnell, gute Qualität
  • Mistral 7B (~4,1 GB) – Gute Balance
  • Mixtral 8x7B (~26 GB) – Höhere Qualität, benötigt mehr RAM

Best Practices für private Arbeitsabläufe

Verwenden Sie bestimmte Aktionen für sensible Aufgaben: Erstellen Sie Alter Actions, die so konfiguriert sind, dass sie immer Ihr lokales Modell verwenden. Auf diese Weise verwenden Sie nie versehentlich ein Cloud-Modell für sensible Arbeiten.
Einen Datenschutzarbeitsbereich einrichten: Erstellen Sie einen Arbeitsbereich nur für vertrauliche Dokumente. Dies sorgt für Ordnung und erinnert Sie daran, lokale Modelle zu verwenden.
Überprüfen Sie, ob es funktioniert: Trennen Sie nach der Einrichtung die WLAN-Verbindung und versuchen Sie, Alter zu verwenden. Wenn es immer noch mit Ihrem lokalen Modell funktioniert, wissen Sie, dass es wirklich lokal ist.

Wann was verwenden

SzenarioEmpfehlung
KrankenaktenLokales Modell (Ollama/LM Studio)
Juristische DokumenteLokales Modell
SicherheitsforschungLokales Modell
FinanzanalyseLokales Modell oder Alter Cloud mit Pro-Plan
Kreatives SchreibenCloud-Modelle (bessere Kreativität)
Allgemeine FragenCloud-Modelle (schneller)
Code-UnterstützungBeides funktioniert gut

Verwandte Ressourcen


Bereit, privat zu werden? Beginnen Sie mit Ollama und dem Llama 3.1-Modell. Es ist kostenlos, einfach einzurichten und Sie erhalten KI-Unterstützung, die Ihren Mac nie verlässt!