2 min read

IA Sin Humo — Edición #1

Menos magia, más ingeniería (y el verdadero precio de los $20)

Si alguna vez le pediste a un LLM que te arme una app en 10 segundos y te devolvió el HTML, el backend y el script de base de datos listos… hoy abrimos la caja negra. Y hablamos de negocios: por qué te cobran tan barato.


🎩 El truco: cómo un prompt se hace app

La IA no piensa como un programador. Es predicción estadística entrenada con código abierto — GitHub, StackOverflow. Tres pasos:

  1. Mapeo. Detecta "login" → asocia formulario, backend, validación, JWT.
  2. Predicción. Abre un try { → sabe estadísticamente que viene el catch.
  3. Ensamblaje. Junta piezas de millones de repos y entrega algo funcional.
El límite real: Funciona para componentes aislados. Si le pedís que integre tu sistema legado con tu CRM SaaS personalizado, choca — ese contexto no existe en ningún repo público. Ahí el Arquitecto humano sigue siendo indispensable.
Pregunta incómoda: ¿Y si el gran secreto de la IA es que los humanos somos demasiado predecibles? ¿Qué otras herramientas free o casi free estuviste usando estos últimos años?

💸 El modelo de negocio: si es barato, el producto sos vos

Las GPUs para correr IA cuestan fortunas. Sin embargo, te venden acceso "ilimitado" por ~$20/mes. ¿Por qué tan barato? Porque los $20 son un subsidio — la diferencia la cobran con la propiedad intelectual de tu empresa: tus prompts, tu código, tus documentos.

Proveedor¿Entrenan con tus datos?Detalle
OpenAI / Anthropic⚠️ Sí, por defectoOpt-out disponible en configuración de la cuenta.
Google Gemini🔴 Sí + revisión humanaRevisores externos pueden leer tus chats. Se guardan hasta 3 años aunque borres la cuenta.
Factor GDPR: Para equipos en Europa o que manejan datos europeos, pegar datos de clientes en una interfaz web de IA sin garantías contractuales es una infracción directa. Multas de hasta el 4% de la facturación anual.

🛠️ El camino seguro: enrutar según nivel de riesgo

EscenarioHerramientaPor qué
Ofimática y minutasMicrosoft 365 CopilotTodo dentro del tenant. Respeta permisos de Active Directory. Si el equipo usa ChatGPT web para resumir minutas internas, asumí que están filtrando.
Código propietarioLM Studio / OllamaModelos como Llama 3 corriendo 100% offline en la notebook del developer. Riesgo de fuga de datos: cero.
IA corporativa internavLLM / NVIDIA NIMClúster de GPUs propio o en VPC privada. Modelos como Qwen 2.5 servidos a toda la empresa como un ChatGPT privado.
Integraciones escalablesAPIs oficialesSe paga por tokens — más caro a escala, pero el contrato incluye Zero Data Retention.

La innovación no se frena, se arquitecta.