こんな人に最適: 弁護士、医師、セキュリティ研究者、または機密データを自分のコンピュータから外に出したくない人など、機密データを扱っている人。
懸念
あなたが取り組んでいるのは:- 顧客の機密情報
- 医療記録
- 独自のビジネスデータ
- 個人の財務書類
- セキュリティ研究
ローカルモデルの仕組み
データをインターネットに送信する代わりに、AI モデルを Mac にダウンロードし (大きなアプリをダウンロードするのと同じように)、ローカルで実行します。データがコンピューターから離れることはありません。100% プライベート
クラウドには何も送信されませんでした。データは Mac に残ります。
オフラインでも動作
飛行機、安全な施設、またはインターネットのない場所で AI を使用します。
APIコストなし
一度ダウンロードすると、使用ごとに料金は発生しません。数千のドキュメントを無料で分析します。
大きなファイルの高速化
アップロード/ダウンロード時間はありません。大きな書類に最適です。
セットアップ: 2 つの簡単なオプション
オプション 1: オラマ (初心者に推奨)
Ollama を使用すると、アプリをインストールするのと同じくらい簡単にローカル モデルを実行できます。オラマをインストールする
- オラマ.comからダウンロード
- 他の Mac アプリと同じようにインストールします
- メニューバーで実行されます
モデルをダウンロードする
ターミナルを開いて次を実行します。これにより、Meta の Llama 3.1 モデル (約 4.7GB) がダウンロードされます。その他の良いオプション:
ollama pull mistral(高速、小型)ollama pull codellama(コードに最適)ollama pull mixtral(より高機能、より大きい)
Alter に接続します
- Alter → 設定 (
Cmd + ,) を開きます - API キー タブに移動します
- カスタム プロバイダー で、Ollama を選択します
- Ollama が実行されていることを確認します (メニュー バーを確認してください)。
- カスタム プロバイダーを有効にする をオンに切り替えます
オプション 2: LM Studio (より詳細なコントロール)
LM Studio には、モデルを管理するためのグラフィカル インターフェイスが用意されています。LMスタジオをインストールする
lmstudio.aiからダウンロードしてインストールしてください。
モデルをダウンロードする
- LMスタジオを開く
- モデルカタログを閲覧する
- ニーズと Mac の仕様に合ったものをダウンロードしてください
- ローカルサーバーを起動します (大きな「サーバーの起動」ボタン)
現実世界の例
博士。チェン医師:「研究のために患者の記録を分析する必要がありますが、HIPAA のためクラウド AI を使用できません。ローカル モデルを使用すると、「これらの症状にはどのようなパターンが見られますか?」と尋ねることができます。すべてを安全なラップトップに保存しながら、AI 支援を受けられます。」アレックス、セキュリティ研究者:
「私はマルウェアのレポートを分析していますが、どこにもアップロードできません。ローカル モデルを実行するということは、『どのような侵害の兆候が言及されているか?』を尋ねることができることを意味します。データ漏洩の危険を冒さずに。」
知っておくべきトレードオフ
速度とプライバシー
速度とプライバシー
クラウド モデル: より速く、より高機能
ローカル モデル: 速度は遅くなりますが、完全にプライベートです16GB RAM を搭載した MacBook Pro は小型モデルをスムーズに実行できます。より大きなモデルの場合は、32GB 以上の RAM が必要になります。
能力の違い
能力の違い
ローカル モデルは毎月改良されていますが、クラウド モデル (GPT-4、Claude) は依然として複雑な推論に対する能力が向上しています。最良のアプローチ: 機密データにはローカル モデルを使用し、機密性の低い複雑なタスクにはクラウド モデルを使用します。
ストレージ要件
ストレージ要件
モデルの範囲は 4GB から 70GB 以上です。十分なディスク容量があることを確認してください。優れたスターター モデル:
- Llama 3.1 8B (~4.7GB) – 高速、まともな品質
- Mistral 7B (~4.1GB) – バランスが良い
- Mixtral 8x7B (~26GB) – 高品質、より多くの RAM が必要
プライベート ワークフローのベスト プラクティス
いつ何を使うか
| シナリオ | 推薦 |
|---|---|
| 医療記録 | ローカルモデル (Ollama/LM Studio) |
| 法的文書 | ローカルモデル |
| セキュリティ研究 | ローカルモデル |
| 財務分析 | ローカル モデルまたは Alter Cloud with Pro プラン |
| クリエイティブライティング | クラウド モデル (創造性の向上) |
| 一般的な質問 | クラウド モデル (高速) |
| コード支援 | どちらでもうまくいきます |
関連リソース
- 独自の API キーを使用する方法 – ステップバイステップのセットアップガイド
- AI モデルの選択 – ローカル オプションとクラウド オプションを比較します
- APIキーの設定 – 詳細な設定
プライベートにする準備はできていますか? Ollama と Llama 3.1 モデルから始めましょう。無料でセットアップが簡単で、Mac から離れることなく AI アシスタントを利用できます。