Saltar para o conteúdo principal
Perfeito para: Advogados, médicos, pesquisadores de segurança ou qualquer pessoa que trabalhe com dados confidenciais e não queira que eles saiam do computador.

A preocupação

Você está trabalhando com:
  • Informações confidenciais do cliente
  • Registros médicos
  • Dados comerciais proprietários
  • Documentos financeiros pessoais
  • Pesquisa de segurança
E você está preocupado em enviar esses dados para serviços de IA em nuvem, como OpenAI ou Google, mesmo que eles afirmem que são privados. A boa notícia: Você não precisa. Você pode executar modelos de IA diretamente no seu Mac.

Como funcionam os modelos locais

Em vez de enviar seus dados para a Internet, você baixa um modelo de IA para o seu Mac (como baixar um aplicativo grande) e o executa localmente. Your data never leaves your computer.

100% Private

Nada enviado para a nuvem. Seus dados permanecem no seu Mac.

Works Offline

Use IA em aviões, em instalações seguras ou em qualquer lugar sem internet.

No API Costs

Depois de baixado, não há taxas por uso. Analise milhares de documentos gratuitamente.

Faster for Big Files

Sem tempo de upload/download. Ótimo para documentos grandes.

Configuração: duas opções fáceis

Opção 1: Ollama (recomendado para iniciantes)

Ollama torna a execução de modelos locais tão simples quanto instalar um aplicativo.
1

Install Ollama

  1. Baixe em ollama.com
  2. Instale-o como qualquer aplicativo Mac
  3. Ele é executado na sua barra de menu
2

Download a model

Abra o Terminal e execute:
    ollama pull llama3.1
Isso baixa o modelo Llama 3.1 da Meta (~ 4,7 GB). Outras boas opções:
  • ollama pull mistral (mais rápido, menor)
  • ollama pull codellama (ótimo para código)
  • ollama pull mixtral (mais capaz, maior)
3

Connect to Alter

  1. Abra Alterar → Configurações (Cmd + ,)
  2. Acesse a guia Chaves de API
  3. Em Provedor personalizado, selecione Ollama
  4. Certifique-se de que o Ollama esteja em execução (verifique a barra de menu)
  5. Ative Ativar provedor personalizado
4

Start using it

  1. Pressione / na caixa de prompt do Alter
  2. Procure a seção Personalizado
  3. Selecione seu modelo local (por exemplo, “llama3.1”)
  4. Pergunte qualquer coisa – funciona inteiramente no seu Mac!

Opção 2: LM Studio (mais controle)

LM Studio oferece uma interface gráfica para gerenciar modelos.
1

Install LM Studio

Baixe em lmstudio.ai e instale-o.
2

Download a model

  1. Abra o LM Studio
  2. Navegue pelo catálogo de modelos
  3. Baixe um que atenda às suas necessidades e especificações do Mac
  4. Inicie o servidor local (botão grande “Iniciar Servidor”)
3

Connect to Alter

  1. Em Alterar configurações → Chaves de API
  2. Selecione LM Studio como provedor
  3. LM Studio é executado em localhost:1234 por padrão
  4. Ative Ativar provedor personalizado

Exemplo do mundo real

Dr. Chen, médico:
“Preciso analisar as anotações dos pacientes para pesquisa, mas não posso usar a IA na nuvem devido à HIPAA. Com um modelo local, posso perguntar ‘Que padrões você vê nesses sintomas?’ e obtenha assistência de IA enquanto mantenho tudo em meu laptop seguro.”
Alex, pesquisador de segurança:
“Eu analiso relatórios de malware e não consigo carregá-los em lugar nenhum. Executar um modelo local significa que posso perguntar ‘Quais indicadores de comprometimento são mencionados?’ sem arriscar a exposição dos dados.”

Compensações para conhecer

Modelos de nuvem: mais rápidos e mais capazes Modelos locais: Mais lentos, mas totalmente privadosUm MacBook Pro com 16 GB de RAM pode executar modelos pequenos sem problemas. Para modelos maiores, você precisará de mais de 32 GB de RAM.
Os modelos locais estão melhorando a cada mês, mas os modelos em nuvem (GPT-4, Claude) são ainda mais capazes de raciocínios complexos.Melhor abordagem: use modelos locais para dados confidenciais e modelos de nuvem para tarefas complexas menos confidenciais.
Os modelos variam de 4 GB a 70 GB+. Certifique-se de ter espaço em disco suficiente.Bons modelos iniciais:
  • Llama 3.1 8B (~4,7 GB) – Qualidade rápida e decente
  • Mistral 7B (~4,1 GB) – Bom equilíbrio
  • Mixtral 8x7B (~26GB) – Maior qualidade, precisa de mais RAM

Melhores práticas para fluxos de trabalho privados

Use ações específicas para tarefas confidenciais: Crie ações de alteração configuradas para sempre usar seu modelo local. Dessa forma, você nunca usa acidentalmente um modelo de nuvem para trabalhos confidenciais.
Configure um espaço de trabalho de privacidade: Crie um espaço de trabalho apenas para documentos confidenciais. Isso os mantém organizados e lembra você de usar modelos locais.
Verifique se está funcionando: Após a configuração, desconecte-se do WiFi e tente usar o Alter. Se ainda funcionar com o seu modelo local, você sabe que é verdadeiramente local.

Quando usar o que

CenárioRecomendação
Registros médicosModelo local (Ollama/LM Studio)
Documentos legaisModelo local
Pesquisa de segurançaModelo local
Análise financeiraModelo local ou Alter Cloud com plano Pro
Escrita criativaModelos de nuvem (melhor criatividade)
Perguntas geraisModelos de nuvem (mais rápido)
Assistência ao códigoQualquer um funciona bem

Recursos relacionados


Pronto para se tornar privado? Comece com Ollama e o modelo Llama 3.1. É gratuito, fácil de configurar e você terá assistência de IA que nunca sai do seu Mac!