Skip to main content
Perfeito para: Advogados, médicos, investigadores de segurança, ou qualquer pessoa que trabalhe com dados sensíveis que não queira que saia do computador.

A Preocupação

Estás a trabalhar com:
  • Informação confidencial do cliente
  • Registos médicos
  • Dados próprios das empresas
  • Documentos financeiros pessoais
  • Investigação em matéria de segurança
E você está preocupado em enviar esses dados para serviços de IA na nuvem como OpenAI ou Google, mesmo que eles afirmem que é privado. ** A boa notícia:** Não precisas. Você pode executar modelos de IA diretamente em seu Mac.

Como funcionam os modelos locais

Em vez de enviar seus dados para a internet, você baixar um modelo de IA para seu Mac (como baixar um aplicativo grande) e executá-lo localmente. Os seus dados nunca deixam o seu computador.

100% Privado

Nada enviado para a nuvem. Os seus dados permanecem no Mac.

Funciona Desligado

Use IA em aviões, em instalações seguras ou em qualquer lugar sem internet.

Sem Custos de API

Uma vez baixado, sem taxas por uso. Analise milhares de documentos de graça.

Mais rápido para arquivos grandes

Sem tempo de envio/download. Ótimo para documentos grandes.

Configuração: Duas opções fáceis

Opção 1: Ollama (Recomendado para iniciantes)

Ollama torna a execução de modelos locais tão simples quanto instalar um aplicativo.
1

Instalar o Ollama

  1. Baixar de ollama.com
  2. Instale-o como qualquer aplicativo Mac
  3. Funciona na barra de menus
2

Transferir um modelo

Abrir o Terminal e executar:
ollama pull llama3.1
Isso baixa o modelo Llama 3.1 da Meta (~4.7GB). Outras boas opções:
  • ollama pull mistral (mais rápido, mais pequeno)
  • ollama pull codellama (óptimo para o código)
  • ollama pull mixtral (mais capaz, maior)
3

Ligar ao Alter

  1. Abrir Alter → Configurações (Cmd + ,)
  2. Ir para API Keys tab
  3. Em ** Fornecedor Personalizado**, selecione Ollama
  4. Certifique-se de que o Ollama está em execução (verifique a barra de menus)
  5. Alternar ** Ativar o Fornecedor Personalizado** ON
4

Comece a usá- lo

  1. Pressione / na caixa de prompt do Alter
  2. Procure a seção Custom
  3. Selecione seu modelo local (por exemplo, “llama3.1)
  4. Pergunte qualquer coisa – ele funciona inteiramente no seu Mac!

Opção 2: LM Studio (Mais controle)

O LM Studio oferece uma interface gráfica para gerenciar modelos.
1

Instalar o LM Studio

Baixar de lmstudio.ai e instalá-lo.
2

Transferir um modelo

  1. Abrir o LM Studio
  2. Navegue no catálogo do modelo
  3. Baixe um que se encaixa em suas necessidades e especificações do Mac
  4. Iniciar o servidor local (botão “Iniciar servidor”)
3

Ligar ao Alter

  1. Em configurações de Alter → Chaves API
  2. Selecione LM Studio como o provedor
  3. O LM Studio é executado no localhost:1234 por omissão
  4. Alternar ** Ativar o Fornecedor Personalizado** ON

Exemplo do mundo real

Dr. Chen, médico:
“Preciso analisar anotações de pacientes para pesquisa, mas não posso usar IA de nuvem devido à HIPAA. Com um modelo local, posso perguntar ‘Quais padrões você vê nesses sintomas?’ e obter assistência de IA enquanto mantém tudo no meu laptop seguro.”
** Alex, pesquisador de segurança:**
“Eu analiso relatórios de malware e não posso enviá-los para qualquer lugar. Executar um modelo local significa que posso perguntar “Que indicadores de compromisso são mencionados?” sem arriscar a exposição de dados.”

Trade-offs para saber

** Modelos de nuvem:** Mais rápido, mais capaz Modelos locais: Mais lento, mas completamente privadoUm MacBook Pro com 16GB de RAM pode executar pequenos modelos sem problemas. Para modelos maiores, você vai querer 32GB+ RAM.
Modelos locais estão melhorando a cada mês, mas modelos de nuvem (GPT-4, Claude) ainda são mais capazes de raciocínio complexo.Melhor abordagem: Use modelos locais para dados sensíveis, modelos de nuvem para tarefas menos complexas.
Os modelos variam de 4GB a 70GB+. Certifique-se de ter espaço suficiente em disco.** Bons modelos de arranque:**
  • Llama 3.1 8B (~4.7GB) – Qualidade rápida e decente
  • Mistral 7B (~4.1GB) – Bom equilíbrio
  • Mixtral 8x7B (~26GB) – Maior qualidade, precisa de mais RAM

Melhores práticas para fluxos de trabalho privados

Use ações específicas para tarefas sensíveis: Criar Alter Acções configuradas para usar sempre o seu modelo local. Dessa forma, você nunca acidentalmente usa um modelo de nuvem para um trabalho sensível.
Set up a privacy workspace: Criar um Workspace apenas para documentos sensíveis. Isso os mantém organizados e lembra que você deve usar modelos locais.
** Verifique se está a funcionar:** Depois de configurar, desconecte-se do WiFi e tente usar Alter. Se ainda funciona com o seu modelo local, sabe que é verdadeiramente local.

Quando usar o que

• Cenário • Recomendação

Registros médicos □ Modelo local (Ollama/LM Studio) □ Documentos jurídicos • Pesquisa de segurança • Análise financeira • Modelo local ou Alter Cloud com plano Pro Escrita criativa Modelos em nuvem (melhor criatividade) • Perguntas gerais • Modelos de nuvem (mais rápido) Assistência de código

Recursos conexos


** Pronto para ir em privado?** Comece com Ollama e o modelo Llama 3.1. É gratuito, fácil de configurar, e você terá assistência de IA que nunca deixa seu Mac!