FanFusion SEOEmpezar trial
Todos los módulos
Privacidad$49/mes$99

Privacidad · Ollama on-prem · datos no salen

Local LLM Privacy Mode

Local LLM Privacy Mode redirige toda la generación de contenido a un servidor Ollama que tú controlas. Los datos del cliente — texto, briefs, contexto de cluster — nunca salen de tu infraestructura. Para verticales con compliance estricto y agencias que quieren control total.

Ollama on-prem
Datos no salen
Compliance ready

El compromiso de privacidad por arquitectura

En modo cloud (default), las llamadas de generación pasan por Anthropic (Claude). Es el camino más simple, más rápido, y la calidad es excelente. Pero hay verticales — legal, salud, finanzas, defensa, sectores regulados — donde el dato simplemente no puede salir del perímetro del cliente. Hasta ahora, eso significaba renunciar a la generación automática y volver al brief manual.

Privacy Mode resuelve eso: tú levantas un servidor Ollama (en AWS de tu cuenta, en hardware on-prem, en hosting privado), nos das endpoint + token, y desde ese momento todas las llamadas de generación van ahí. La calidad depende del modelo que elijas — Llama 3.1 70B, Qwen 2.5 72B, Mixtral, lo que tu hardware aguante. La operación es idéntica al modo cloud para el usuario, solo que sin datos saliendo de tu red.

Lo que sigue corriendo en cloud

Honestidad: no todo migra. SERP scraping, GSC sync, billing y monitoreo siguen corriendo en infraestructura nuestra — son servicios que no contienen datos sensibles del cliente, solo metadata pública. Lo que va al LLM (briefs, contenido, prompts con contexto) sí queda en tu Ollama. Si necesitas air-gapped completo (cero conexión a nuestro cloud), eso requiere licencia enterprise especial.

Cómo lo hace el operador

  1. 1Levantas servidor Ollama con el modelo de tu elección (Llama 3.1 70B recomendado para calidad similar a Claude para SEO).
  2. 2Configuras endpoint + bearer token en Settings → Privacy.
  3. 3El agente redirige todas las llamadas de generación al endpoint local. Verificación automática.
  4. 4Logs locales muestran qué se ejecutó dónde para auditoría compliance.

Lo que NO hace

  • ·Calidad de generación depende del modelo. Llama 3.1 70B es ~85-90% de la calidad de Claude para tareas SEO. Modelos menores (8B/13B) bajan a 60-70%.
  • ·Latencia depende del hardware. Una GPU H100 da respuestas similares a cloud; CPU pura puede ser 5-20x más lenta.
  • ·Inversión en hardware o hosting Ollama es a tu cargo.

Preguntas frecuentes

¿Qué hardware se necesita?+

Para Llama 3.1 70B con buena UX: 1x A100 80GB o equivalente. Modelos menores funcionan en hardware más modesto pero con calidad menor.

¿Puedo hacer hybrid (cloud para algunas cosas, Ollama para otras)?+

Sí. En Settings configuras qué tipos de tareas van a cloud vs local. Ej: briefs en cloud, generación de contenido en local.

¿Hay licencia enterprise air-gapped real?+

Sí, contractual. Significa que toda la infraestructura corre en tu red, incluido scheduler, GSC sync, etc. Contacto para detalles.

Pruébalo dentro del operador

Local LLM Privacy Mode redirige toda la generación de contenido a un servidor Ollama que tú controlas. Empezá con el bundle que incluye Local LLM Privacy Mode o súmalo a la carta.