Saltar al contenido principal
Perfecto para: Abogados, médicos, investigadores de seguridad o cualquier persona que trabaje con datos confidenciales y no quiera que salgan de su computadora.

La preocupación

Estás trabajando con:
  • Información confidencial del cliente
  • Registros médicos
  • Datos comerciales propietarios
  • Documentos financieros personales
  • Investigación de seguridad
Y le preocupa enviar estos datos a servicios de inteligencia artificial en la nube como OpenAI o Google, incluso si afirman que son privados. La buena noticia: No es necesario. Puede ejecutar modelos de IA directamente en su Mac.

Cómo funcionan los modelos locales

En lugar de enviar sus datos a Internet, descarga un modelo de IA en su Mac (como descargar una aplicación grande) y lo ejecuta localmente. Tus datos nunca salen de tu computadora.

100% Private

Nada enviado a la nube. Tus datos permanecen en tu Mac.

Works Offline

Utilice la IA en aviones, en instalaciones seguras o en cualquier lugar sin Internet.

No API Costs

Una vez descargado, no hay tarifas por uso. Analiza miles de documentos gratis.

Faster for Big Files

Sin tiempo de carga/descarga. Ideal para documentos grandes.

Configuración: dos opciones sencillas

Opción 1: Ollama (Recomendado para principiantes)

Ollama hace que ejecutar modelos locales sea tan simple como instalar una aplicación.
1

Install Ollama

  1. Descargar desde ollama.com
  2. Instálalo como cualquier aplicación de Mac
  3. Se ejecuta en tu barra de menú.
2

Download a model

Abra Terminal y ejecute:
ollama pull llama3.1
Esto descarga el modelo Llama 3.1 de Meta (~4,7 GB). Otras buenas opciones:
  • ollama pull mistral (más rápido, más pequeño)
  • ollama pull codellama (excelente para código)
  • ollama pull mixtral (más capaz, más grande)
3

Connect to Alter

  1. Abra Modificar → Configuración (Cmd + ,)
  2. Vaya a la pestaña Claves API
  3. En Proveedor personalizado, seleccione Ollama
  4. Asegúrate de que Ollama se esté ejecutando (revisa tu barra de menú)
  5. Active Habilitar proveedor personalizado
4

Start using it

  1. Presione / en el cuadro de aviso de Alter.
  2. Busque la sección Personalizado
  3. Seleccione su modelo local (por ejemplo, “llama3.1”)
  4. Pregunta cualquier cosa: ¡se ejecuta completamente en tu Mac!

Opción 2: LM Studio (Más control)

LM Studio te ofrece una interfaz gráfica para gestionar modelos.
1

Install LM Studio

Descárguelo desde lmstudio.ai e instálelo.
2

Download a model

  1. Abra LM Studio
  2. Explora el catálogo de modelos.
  3. Descarga uno que se ajuste a tus necesidades y a las especificaciones de Mac.
  4. Inicie el servidor local (botón grande “Iniciar servidor”)
3

Connect to Alter

  1. En Modificar configuración → Claves API
  2. Seleccione LM Studio como proveedor.
  3. LM Studio se ejecuta en localhost:1234 de forma predeterminada
  4. Active Habilitar proveedor personalizado

Ejemplo del mundo real

Dr. Chen, médico:
“Necesito analizar las notas de los pacientes para realizar investigaciones, pero no puedo usar la IA en la nube debido a HIPAA. Con un modelo local, puedo preguntar ‘¿Qué patrones ves en estos síntomas?’ y obtener asistencia de IA mientras mantengo todo en mi computadora portátil segura”.
Alex, investigador de seguridad:
“Analizo informes de malware y no puedo cargarlos en ningún lugar. Ejecutar un modelo local significa que puedo preguntar ‘¿Qué indicadores de compromiso se mencionan?’ sin riesgo de exposición de datos.”

Compensaciones que debes conocer

Modelos en la nube: Más rápido, más capaz Modelos locales: Más lento, pero completamente privado.Una MacBook Pro con 16 GB de RAM puede ejecutar modelos pequeños sin problemas. Para modelos más grandes, querrás más de 32 GB de RAM.
Los modelos locales mejoran cada mes, pero los modelos en la nube (GPT-4, Claude) son aún más capaces de realizar razonamientos complejos.Mejor enfoque: Utilice modelos locales para datos confidenciales y modelos en la nube para tareas complejas menos confidenciales.
Los modelos van desde 4 GB hasta 70 GB+. Asegúrese de tener suficiente espacio en disco.Buenos modelos iniciales:
  • Llama 3.1 8B (~4,7 GB): calidad rápida y decente
  • Mistral 7B (~4,1 GB) – Buen equilibrio
  • Mixtral 8x7B (~26GB) – Mayor calidad, necesita más RAM

Mejores prácticas para flujos de trabajo privados

Utilice acciones específicas para tareas delicadas: Cree acciones de modificación configuradas para usar siempre su modelo local. De esa manera, nunca utilizará accidentalmente un modelo en la nube para trabajos delicados.
Configure un espacio de trabajo privado: Cree un espacio de trabajo solo para documentos confidenciales. Esto los mantiene organizados y le recuerda que debe utilizar modelos locales.
Verifica que esté funcionando: Después de la configuración, desconéctate de WiFi e intenta usar Alter. Si todavía funciona con su modelo local, sabrá que es verdaderamente local.

Cuándo usar qué

EscenarioRecomendación
Registros médicosModelo local (Ollama/LM Studio)
Documentos legalesModelo local
Investigación de seguridadModelo local
Análisis financieroModelo local o Alter Cloud con plan Pro
Escritura creativaModelos en la nube (mejor creatividad)
Preguntas generalesModelos en la nube (más rápidos)
Asistencia de códigoCualquiera funciona bien

Recursos relacionados


¿Listo para pasar a ser privado? Comience con Ollama y el modelo Llama 3.1. ¡Es gratis, fácil de configurar y tendrás asistencia de IA que nunca sale de tu Mac!