Arquitectura Central: Audio - Transcripción - Chat Contextual + MCP
BPCode.ai ha desarrollado una solución avanzada que convierte largas conversaciones de audio en interfaces de chat inteligentes y contextuales, capaces de acceder a sistemas empresariales en tiempo real.
🧠 Infraestructura de IA Modular
Diseñamos e implementamos sistemas de inteligencia artificial privados, modulares y seguros, listos para integrarse en los flujos de trabajo de tu organización.
Nuestra arquitectura combina herramientas open-source, contenedores, modelos locales o en la nube, y agentes que no solo responden — también actúan, colaboran e integran.
🧱 Arquitectura General
Cada componente vive en un contenedor aislado y se comunica a través de red interna. Esto permite desarrollo rápido, despliegue seguro y escalabilidad modular.
| Capa | Componente | Descripción |
|---|---|---|
| Frontend | Streamlit (prototipos) App Svelte (producción) |
Usamos Streamlit para prototipos rápidos. En producción, entregamos una app web Svelte con login, roles y sesiones seguras. |
| Motor de Agentes | Generador Visual de Agentes (PUAG) | Interfaz visual para crear flujos de agentes: memoria, lógica, herramientas y condiciones. Basado en LangChain, pero con abstracción intuitiva. |
| Modelo LLM | Ollama (local) o API en la nube | Compatibilidad con modelos locales (Qwen, Mistral, LLaMA3) vía Ollama. Se puede usar OpenAI, Claude, etc., como opción secundaria o avanzada. |
| Reconocimiento de voz (STT) | Motor STT modular | Reconocimiento de voz en múltiples idiomas (Catalán, Español, Inglés, Árabe, etc.). Modo en tiempo real o procesamiento por lotes. |
| Memoria contextual | PostgreSQL + pgvector | Almacén vectorial y relacional para memoria semántica, búsqueda de contexto y RAG (búsqueda aumentada). Multiusuario y seguro. |
| Integración de herramientas | MCP – Modelo Context Protocol | Permite a los agentes ejecutar herramientas reales: scripts, APIs, lógica interna o incluso otros agentes. Cada herramienta es segura, declarativa y reutilizable. |
| Infraestructura | Docker | Todo corre en contenedores aislados. Solo la app frontend está expuesta. Preparado para entornos offline o on-premise. |
🧰 MCP – Model Context Protocol
MCP es nuestro protocolo para conectar agentes con funciones reales: APIs, lógica interna, scripts o sistemas externos.
Cada herramienta MCP es:
- Autodescriptiva (nombre, descripción, parámetros, respuesta)
- Ejecutable vía API o función local
- Detectable por el agente en tiempo real
Ejemplos de herramientas:
| Herramienta | Función |
|---|---|
diagnosticar_imagen(img) |
Análisis médico con IA |
odoo.obtener_factura(id_cliente) |
Datos financieros del ERP |
gmail.buscar("reunión") |
Buscar correos recientes |
generar_documento(plantilla, contexto) |
Redactar documentos tipo Word |
validar_clausula(texto) |
Revisar legalmente un contrato |
🤖 A2A – Comunicación entre Agentes
Con nuestra arquitectura, los agentes pueden llamarse entre sí como si fueran herramientas. Esto permite:
- Delegar tareas a otros agentes
- Encadenar procesos complejos entre distintos dominios
- Especialización funcional (cada agente cumple una función concreta)
- Validación cruzada entre agentes
Ejemplos:
| Caso | Descripción |
|---|---|
| Delegación | Un agente legal llama a uno de compliance para validar una cláusula |
| Colaboración médica | Un asistente clínico transfiere síntomas a un agente de diagnóstico |
| Escalado | Un agente general detecta una consulta contable y llama a uno financiero |
| Validación | Un agente revisa los resultados generados por otro antes de mostrarlo |
Los MCP actúan como una API compartida entre agentes, abriendo posibilidades para ecosistemas de IA cooperativa dentro de tu organización.
🧠 PUAG – Generador Visual de Agentes
Diseña agentes inteligentes sin escribir infraestructura:
- Editor visual de prompts, lógica, memoria y herramientas
- Control de entradas, condiciones, derivaciones
- Versión y pruebas antes del despliegue
- Compatible con escenarios A2A
- Ideal para crear y mantener agentes en entornos corporativos
🗃️ Memoria Semántica con PostgreSQL + pgvector
Toda la memoria contextual y búsqueda semántica se gestiona dentro de tu infraestructura:
- Chat con historial relevante
- Documentos internos indexados
- Inyección de contexto vía RAG
- Multiusuario, auditable y seguro
Tu información permanece local y bajo control.
🛡️ Seguridad y Despliegue
- Contenerización total con Docker
- Comunicación interna segura (sin puertos públicos)
- Compatible con entornos sin conexión (air-gapped)
- Cumple con GDPR y otras normativas de privacidad
- Logging, auditoría y control total del sistema
⚙️ Ejemplos de Configuración
| Dominio | LLM | STT | Herramientas / A2A | Descripción |
|---|---|---|---|---|
| Salud | Qwen 4B (local) | Catalán, Español | obtener_radiografía, diagnosticar, generar_informe |
Agente clínico que delega a agentes de diagnóstico e informes |
| Legal | Mistral 7B | Español, Francés | buscar_ley, verificar_cláusula, agente_resumen |
Un asistente jurídico llama a agentes expertos para validar y resumir |
| Finanzas | GPT-4 API | Inglés | odoo_agent, forecast_kpis |
El dashboard IA se conecta a agentes internos de ERP y análisis |
| Educación | LLaMA3 | Árabe, Inglés | agente_quiz, agente_tutor |
Coordinador de curso que organiza a agentes según tareas pedagógicas |
✅ ¿Por qué este stack?
- Modular: reemplaza o encadena agentes, modelos, herramientas o interfaces
- Privado: todo corre en tu red, sin exposición innecesaria
- Flexible: personalizable para salud, legal, finanzas, educación y más
- Operativo: agentes que piensan y actúan con acceso real a tus datos
- Ecosistema: los agentes pueden colaborar como un equipo de trabajo digital
💼 ¿Qué ofrecemos?
Podemos ayudarte a implementar, escalar o entregar un sistema llave en mano:
- Configuración de infraestructura
- Despliegue y ajuste de modelos
- Diseño de agentes y lógica MCP
- Desarrollo de frontend o integración API
- Capacitación a tu equipo o soporte continuo
Trabajamos como arquitectos de tu ecosistema de IA — en colaboración o como partner externo.