Skip to main content
Perfecto para: Abogados, médicos, investigadores de seguridad o cualquier persona que trabaje con datos confidenciales y no quiera que salgan de su computadora.

La preocupación

Estás trabajando con:
  • Información confidencial del cliente.
  • Registros médicos
  • Datos comerciales propietarios
  • Documentos financieros personales
  • investigación de seguridad
Y le preocupa enviar estos datos a servicios de inteligencia artificial en la nube como OpenAI o Google, incluso si afirman que son privados. La buena noticia: No es necesario. Puede ejecutar modelos de IA directamente en su Mac.

Cómo funcionan los modelos locales

En lugar de enviar sus datos a Internet, descarga un modelo de IA en su Mac (como descargar una aplicación grande) y lo ejecuta localmente. Tus datos nunca salen de tu computadora.

100% Privado

Nada enviado a la nube. Tus datos permanecen en tu Mac.

Funciona sin conexión

Utilice la IA en aviones, en instalaciones seguras o en cualquier lugar sin Internet.

Sin costos de API

Una vez descargado, no hay tarifas por uso. Analiza miles de documentos gratis.

Más rápido para archivos grandes

Sin tiempo de carga/descarga. Ideal para documentos grandes.

Configuración: dos opciones sencillas

Opción 1: Ollama (Recomendado para principiantes)

Ollama hace que ejecutar modelos locales sea tan simple como instalar una aplicación.
1

Instalar Ollama

  1. Descargar desde ollama.com
  2. Instálalo como cualquier aplicación de Mac
  3. Se ejecuta en tu barra de menú.
2

Descargar un modelo

Abra Terminal y ejecute:
ollama pull llama3.1
Esto descarga el modelo Llama 3.1 de Meta (~4,7 GB). Otras buenas opciones:
  • ollama pull mistral (más rápido, más pequeño)
  • ollama pull codellama (excelente para código)
  • ollama pull mixtral (más capaz, más grande)
3

Conéctese a Alter

  1. Abra Alter → Configuración (Cmd + ,)
  2. Vaya a la pestaña Claves API
  3. En Proveedor personalizado, seleccione Ollama
  4. Asegúrate de que Ollama se esté ejecutando (revisa tu barra de menú)
  5. Activar Habilitar proveedor personalizado
4

Empieza a usarlo

  1. Presione / en el cuadro de aviso de Alter
  2. Busque la sección Personalizado
  3. Seleccione su modelo local (por ejemplo, “llama3.1”)
  4. Pregunte cualquier cosa: ¡se ejecuta completamente en su Mac!

Opción 2: LM Studio (Más control)

LM Studio te ofrece una interfaz gráfica para gestionar modelos.
1

Instalar LM Studio

Descárguelo desde lmstudio.ai e instálelo.
2

Descargar un modelo

  1. Abrir LM Studio
  2. Explora el catálogo de modelos
  3. Descarga uno que se ajuste a tus necesidades y a las especificaciones de Mac
  4. Inicie el servidor local (botón grande “Iniciar servidor”)
3

Conéctese a Alter

  1. En Alter Configuración → Claves API
  2. Seleccione LM Studio como proveedor
  3. LM Studio se ejecuta en localhost:1234 de forma predeterminada
  4. Activar Habilitar proveedor personalizado

Ejemplo del mundo real

Dr. Chen, médico:
“Necesito analizar las notas de los pacientes para realizar investigaciones, pero no puedo usar la IA en la nube debido a HIPAA. Con un modelo local, puedo preguntar ‘¿Qué patrones ves en estos síntomas?’ y obtener asistencia de IA mientras mantengo todo en mi computadora portátil segura”.
Alex, investigador de seguridad:
“Analizo informes de malware y no puedo cargarlos en ningún lugar. Ejecutar un modelo local significa que puedo preguntar ‘¿Qué indicadores de compromiso se mencionan?’ sin riesgo de exposición de datos.”

Compensaciones que debe conocer

Modelos en la nube: Más rápido, más capaz Modelos locales: Más lento, pero completamente privado.Una MacBook Pro con 16 GB de RAM puede ejecutar modelos pequeños sin problemas. Para modelos más grandes, querrás más de 32 GB de RAM.
Los modelos locales mejoran cada mes, pero los modelos en la nube (GPT-4, Claude) son aún más capaces de realizar razonamientos complejos.Mejor enfoque: Utilice modelos locales para datos confidenciales y modelos en la nube para tareas complejas menos confidenciales.
Los modelos van desde 4 GB hasta 70 GB+. Asegúrese de tener suficiente espacio en disco.Buenos modelos iniciales:
  • Llama 3.1 8B (~4,7 GB): calidad rápida y decente
  • Mistral 7B (~4,1 GB) – Buen equilibrio
  • Mixtral 8x7B (~26GB): mayor calidad, necesita más RAM

Mejores prácticas para flujos de trabajo privados

Utilice acciones específicas para tareas confidenciales: Cree Alter acciones configuradas para usar siempre su modelo local. De esa manera, nunca utilizará accidentalmente un modelo en la nube para trabajos delicados.
Configure un espacio de trabajo privado: Cree un espacio de trabajo solo para documentos confidenciales. Esto los mantiene organizados y le recuerda que debe utilizar modelos locales.
Verifique que esté funcionando: Después de la configuración, desconéctese de WiFi e intente usar Alter. Si todavía funciona con su modelo local, sabrá que es verdaderamente local.

cuando usar que

EscenarioRecomendación
Registros médicosModelo local (Ollama/LM Studio)
Documentos legalesModelo local
Investigación de seguridadModelo local
Análisis financieroModelo local o Alter Cloud con plan Pro
Escritura creativaModelos en la nube (mejor creatividad)
Preguntas generalesModelos en la nube (más rápidos)
Asistencia de códigoCualquiera funciona bien

Recursos relacionados


¿Listo para pasar a ser privado? Comience con Ollama y el modelo Llama 3.1. ¡Es gratis, fácil de configurar y tendrás asistencia de IA que nunca sale de tu Mac!