こんな人に最適: 弁護士、医師、セキュリティ研究者、または機密データを自分のコンピュータから外に出したくない人など、機密データを扱っている人。
懸念事項
あなたが取り組んでいるのは:- クライアントの機密情報
- 医療記録
- 独自のビジネスデータ
- 個人の財務書類
- セキュリティ調査
ローカルモデルの仕組み
データをインターネットに送信する代わりに、AI モデルを Mac にダウンロードし (大きなアプリをダウンロードするのと同じように)、ローカルで実行します。データがコンピューターから離れることはありません。100% Private
クラウドには何も送信されませんでした。データは Mac に残ります。
Works Offline
飛行機、安全な施設、またはインターネットのない場所で AI を使用します。
No API Costs
一度ダウンロードすると、使用ごとに料金は発生しません。数千のドキュメントを無料で分析します。
Faster for Big Files
アップロード/ダウンロード時間はありません。大きな書類に最適です。
セットアップ: 2 つの簡単なオプション
オプション 1: オラマ (初心者に推奨)
Ollama を使用すると、アプリをインストールするのと同じくらい簡単にローカル モデルを実行できます。Install Ollama
- ollama.comからダウンロード
- 他の Mac アプリと同様にインストールします
- メニューバーで実行されます
Download a model
ターミナルを開いて次を実行します。これにより、Meta の Llama 3.1 モデル (~4.7GB) がダウンロードされます。その他の良いオプション:
ollama pull mistral(より速く、より小さく)ollama pull codellama(コードに最適)ollama pull mixtral(より高性能、より大きい)
Connect to Alter
- [変更] → [設定] (
Cmd + ,) を開きます。 - API キー タブに移動します
- カスタム プロバイダー で、Ollama を選択します
- Ollama が実行されていることを確認します (メニュー バーを確認してください)。
- カスタム プロバイダーを有効にする をオンに切り替えます
オプション 2: LM Studio (より詳細な制御)
LM Studio には、モデルを管理するためのグラフィカル インターフェイスが用意されています。Install LM Studio
lmstudio.aiからダウンロードしてインストールしてください。
Download a model
1.LMスタジオを開きます
2. モデルカタログを参照する
3. ニーズと Mac の仕様に合ったものをダウンロードします。
4. ローカルサーバーを起動します (大きな「サーバーの起動」ボタン)
実際の例
博士チェン医師:「研究のために患者のメモを分析する必要がありますが、HIPAA のためクラウド AI を使用できません。ローカル モデルを使用すると、「これらの症状にはどのようなパターンが見られますか?」と尋ねることができます。すべてを安全なラップトップに保存しながら、AI 支援を受けられます。」アレックス、セキュリティ研究者:
「マルウェア レポートを分析していますが、どこにもアップロードできません。ローカル モデルを実行するということは、「どのような侵害の兆候が言及されているか?」を尋ねることができることを意味します。データ漏洩の危険を冒さずに。」
知っておくべきトレードオフ
Speed vs Privacy
Speed vs Privacy
クラウド モデル: より速く、より高機能
ローカル モデル: 速度は遅くなりますが、完全にプライベートです16GB RAM を搭載した MacBook Pro は小型モデルをスムーズに実行できます。より大きなモデルの場合は、32GB 以上の RAM が必要になります。
Capability differences
Capability differences
ローカル モデルは毎月改良されていますが、クラウド モデル (GPT-4、Claude) は依然として複雑な推論に対する能力が向上しています。最良のアプローチ: 機密データにはローカル モデルを使用し、機密性の低い複雑なタスクにはクラウド モデルを使用します。
Storage requirements
Storage requirements
モデルの範囲は 4GB から 70GB+ までです。十分なディスク容量があることを確認してください。優れたスターター モデル:
- Llama 3.1 8B (~4.7GB) – 高速、まともな品質
- Mistral 7B (~4.1GB) – バランスが良い
- Mixtral 8x7B (~26GB) – 高品質、より多くの RAM が必要
プライベート ワークフローのベスト プラクティス
いつ何を使用するか
| シナリオ | 推薦 |
|---|---|
| 医療記録 | ローカルモデル (Ollama/LM Studio) |
| 法的文書 | ローカルモデル |
| セキュリティ研究 | ローカルモデル |
| 財務分析 | ローカル モデルまたは Pro プランの Alter Cloud |
| クリエイティブライティング | クラウド モデル (創造性の向上) |
| 一般的な質問 | クラウド モデル (高速) |
| コード支援 | どちらでもうまくいきます |
関連リソース
- 独自の API キーの使用方法 – ステップバイステップのセットアップ ガイド
- 設定へのアクセス方法 – 設定を開いてプロバイダーを構成します
- 一般的な FAQ – モデルとプロバイダーの基本
プライベートにする準備はできていますか? Ollama と Llama 3.1 モデルから始めましょう。無料でセットアップが簡単で、Mac から離れることなく AI アシスタントを利用できます。