IA responsable
1. Compromiso
Vantelia construye sistemas de IA conversacional para empresas. Asumimos públicamente que la IA es una tecnología potente con riesgos reales (alucinaciones, sesgo, opacidad) y nos comprometemos a operar con transparencia, supervisión humana y mejora continua.
2. Principios
- Transparencia: el usuario final siempre sabe que conversa con una IA.
- Trazabilidad: conservamos logs auditables de las conversaciones del asistente.
- Privacidad por diseño: aislamiento por cliente, mínima recogida, cifrado.
- Equidad: revisión periódica de sesgos en respuestas críticas.
- Supervisión humana: rutas de escalado a humanos definidas.
- Robustez: rate limits, validación de salida, fallback a respuestas conservadoras.
3. Transparencia algorítmica
3.1. Modelos
Utilizamos modelos de OpenAI (GPT-4o-mini, GPT-4o, text-embedding-3-small) accedidos vía API empresarial. No empleamos modelos opacos sin documentación o desarrollados por proveedores no auditables.
3.2. Configuración por cliente
Cada cliente puede consultar y modificar:
- Mensaje de bienvenida y tono del asistente
- Instrucciones internas que condicionan el comportamiento
- Contenido del "cerebro" (info.txt) que alimenta el RAG
- Activación/desactivación de canales (web, WhatsApp)
4. Sesgos y mitigación
Los modelos de lenguaje pueden reflejar sesgos presentes en sus datos de entrenamiento. Para mitigarlos:
- Limitamos el dominio de respuesta al cerebro de cada cliente (RAG selectivo)
- Evitamos preguntas de opinión, ideología o consejos médicos/legales/financieros
- Auditamos muestras aleatorias de conversaciones cada trimestre
- Permitimos al cliente reportar respuestas inapropiadas para ajuste inmediato
5. Supervisión humana
El asistente nunca toma decisiones con efecto jurídico o significativo sobre personas. Decisiones críticas (precios, citas, condiciones contractuales) se confirman con un humano del equipo del cliente. Detectamos automáticamente situaciones que requieren escalado: peticiones complejas, frustración del usuario, ambigüedad alta.
6. Datos de entrenamiento
Vantelia no entrena modelos de IA con datos de clientes. Las conversaciones tampoco se utilizan para entrenar modelos públicos de OpenAI (la API empresarial lo prohíbe contractualmente). Las únicas adaptaciones por cliente son:
- Indexación vectorial del "cerebro" propio del cliente para RAG
- Configuración del prompt de sistema (no entrenamiento)
7. Clasificación de riesgo (AI Act)
Conforme al Reglamento (UE) 2024/1689 (AI Act), los sistemas de Vantelia operan en la categoría de riesgo limitado (asistentes conversacionales con obligaciones de transparencia). No prestamos servicios en categorías de alto riesgo (selección de personal, scoring crediticio, asistencia legal vinculante, decisiones administrativas, etc.). Si un cliente nos solicitara aplicar la IA a usos de alto riesgo, lo declinaríamos o realizaríamos la evaluación de conformidad correspondiente.
8. Derechos del usuario final
Cualquier persona que interactúe con un asistente Vantelia tiene derecho a:
- Saber que conversa con una IA (se indica explícitamente)
- Solicitar atención humana en cualquier momento
- Pedir el borrado de su conversación (ver privacidad)
- Recibir explicación sobre cómo se generó una respuesta concreta
- No ser objeto de decisiones automatizadas con efecto jurídico
9. Gestión de incidentes
Si detectas una respuesta incorrecta, ofensiva o problemática, repórtanos a dpo@vantelia.es. Procedimiento:
- Acuse de recibo en 48 h hábiles
- Análisis con el cliente afectado en 5 días
- Aplicación de medida correctiva (ajuste de prompt, contenido del cerebro, lógica de respuesta)
- Notificación de cierre del caso al usuario que reportó
10. Contacto
Para consultas sobre IA responsable: dpo@vantelia.es o Solicitar consulta.