Por qué los modelos de lenguaje actuales deberían alinearse con la consideración de todos los seres sintientes
La inteligencia artificial influye cada vez más en ámbitos que afectan de manera directa al bienestar de los seres sintientes. Los modelos de lenguaje de gran tamaño (LLMs), integrados en buscadores, asistentes, entornos educativos y herramientas profesionales, no solo generan texto: moldean qué información circula, qué argumentos parecen razonables y qué intereses se consideran relevantes.(1)
Por eso, cuando estos sistemas se despliegan a gran escala, resulta crucial examinar qué valores incorporan. No son herramientas neutrales.(2) Contribuyen a estructurar marcos morales implícitos.
En la práctica, la mayoría de los enfoques actuales de alineación se centran casi exclusivamente en los intereses humanos. El “daño” suele entenderse como daño a seres, instituciones o bienes humanos. El resto de animales (aunque sean seres sintientes) y otras posibles formas de sintiencia rara vez se incluyen como sujetos con intereses propios.(3)
Esta exclusión no es técnica, sino normativa. Decidir quién cuenta moralmente en la alineación equivale a decidir qué tipos de daño serán evitados de manera sistemática y cuáles quedarán invisibilizados. Cuando los intereses de los animales no forman parte de los principios que guían el entrenamiento, los sistemas no tienen motivos para tomar en serio su sufrimiento ni para evitar reforzar actitudes y prácticas que lo normalizan.
Qué es la alineación de la IA y por qué no es neutral
La alineación busca que los sistemas de IA no solo funcionen de manera correcta desde el punto de vista técnico, sino que actúen conforme a ciertos fines considerados aceptables. En el caso de los LLMs, no basta con generar texto coherente: se espera que no promuevan violencia, discriminación o daños graves.
Existen distintos métodos para lograrlo:
Alineación constitucional: El modelo se entrena con principios explícitos que orientan qué respuestas debe producir y cuáles evitar. El sistema revisa y reformula sus propias respuestas a la luz de esos principios, incorporándolos como marco interno de conducta.(4)
Aprendizaje por refuerzo con retroalimentación humana (RLHF): Se comparan distintas respuestas del modelo según criterios como utilidad o ausencia de daño, y el modelo aprende a maximizar esas preferencias.(5)
Alineación deliberativa: El sistema internaliza reglas y prioridades normativas, y aprende a aplicarlas durante la generación de respuestas.(6)
Aunque difieren a nivel técnico, todos estos enfoques comparten un rasgo: incorporan juicios de valor. Determinar qué cuenta como daño, qué riesgos priorizar y qué objetivos son legítimos implica adoptar posiciones éticas.
No existe, por tanto, una alineación neutral. Incluso cuando se afirma que la IA debe reflejar “valores humanos”, alguien decide cuáles y cómo traducirlos en reglas operativas.
Si los sistemas se entrenan para evitar el racismo o el sexismo, pero no para tener en cuenta el sufrimiento de los animales no humanos, se está asumiendo que los intereses de estos pueden ignorarse. Lo mismo ocurre con otras posibles formas de sintiencia, presentes o futuras, cuyos intereses podrían quedar excluidos por defecto. Esta exclusión es una forma de discriminación: se deja fuera a individuos capaces de sufrir simplemente por no pertenecer a la especie humana.
Dado el papel creciente de estos sistemas en la producción de información, esta omisión puede contribuir a consolidar un marco moral que invisibiliza a la mayoría de los seres sintientes.
El problema del antropocentrismo en la IA
Hay quien sostiene que, al alinearse con valores humanos, la IA incorporará de manera indirecta cierta preocupación por los animales no humanos. Sin embargo, nuestras sociedades están profundamente marcadas por el especismo, la discriminación que consiste en dar menos peso a los intereses de quienes no pertenecen a la especie humana.
Aunque se condene la crueldad extrema, se siguen aceptando prácticas que causan sufrimiento intenso y prolongado a un número inmenso de animales cada año. A menudo se priorizan beneficios humanos, como ciertas preferencias alimentarias o comodidades, frente a daños graves para otros individuos capaces de experimentar dolor o placer.
Si la alineación reproduce sin más las preferencias dominantes, los sistemas pueden amplificar la desigual consideración moral ya existente. Esto puede traducirse en dinámicas tecnológicas que consoliden prácticas dañinas sin reconocer el sufrimiento implicado.(7)
Las tecnologías tienden a estabilizar y expandir los valores del contexto en que se desarrollan. Un marco de alineación antropocéntrico corre el riesgo de consolidar esta exclusión a gran escala.
Existen, no obstante, pasos iniciales que muestran que ampliar el marco moral es factible. Por ejemplo, la empresa Anthropic ha incluido en la constitución que guía a su modelo Claude una referencia explícita al “bienestar de los animales y de todos los seres sintientes”. Aunque este paso es limitado, demuestra que integrar estos intereses en la alineación no es técnicamente inviable.(8)
Inclusión de todos los seres sintientes en la alineación
Si aceptamos que los intereses moralmente relevantes son los de quienes pueden sufrir o disfrutar, lo coherente es que la alineación de la IA incluya a todos los seres sintientes, y no solo a los humanos. La cuestión práctica no es si esto debería hacerse, sino cómo hacerlo de manera realista. Puede plantearse como algo gradual, con distintos niveles de integración moral.
Alineación fuerte o completa
En el nivel más exigente los sistemas de IA integrarían de forma robusta los intereses de todos los seres sintientes en sus objetivos, aceptando costes relevantes en otros fines para evitar daños.
Este horizonte es coherente con la idea de igual consideración moral, pero en la actualidad es difícil de implementar de manera amplia debido a la fuerte resistencia institucional y cultural frente a cambios estructurales profundos.
Alineación básica
Un paso más inmediato y viable consiste en adoptar un estándar mínimo pero significativo:
Principio de minimización de daño evitable: Los sistemas de IA deberían evitar causar sufrimiento significativo o frustrar intereses importantes de seres sintientes cuando hacerlo no implique sacrificios importantes en el cumplimiento de otros objetivos.
Este nivel no transforma de modo radical los fines del sistema, pero introduce una restricción operativa clara: cuando el daño puede evitarse con ajustes menores (ligeras variaciones de eficiencia, tiempo o recursos), debe evitarse.(9)
Aquí el cambio afecta a decisiones reales. Por ejemplo:
Ajustar rutas de vehículos autónomos si el coste es mínimo
No optimizar procesos productivos que aumenten el sufrimiento cuando existen alternativas de bajo coste
Incluir el bienestar como variable relevante cuando evitar daños no compromete gravemente otros objetivo
Alineación mínima discursiva y cultural
Aquí no se regula de manera directa la acción física, sino el modo en que el sistema enmarca moralmente a los seres sintientes y las prácticas que les afectan. Esto implica evitar la trivialización, cosificación u omisión de su sufrimiento, así como detectar y corregir sesgos especistas o sustratistas(10) en las respuestas, e incorporar de manera explícita en los principios de alineación que el daño hacia seres sintientes no es moralmente irrelevante.
Cada nivel puede implementarse de forma independiente y no requiere herramientas distintas, sino distintos contenidos normativos dentro de mecanismos ya existentes de alineación. Constituciones de modelos, guías para quienes evalúan, especificaciones internas de seguridad o criterios de “no causar daño” pueden incorporar grados diferentes de consideración moral. Si redefinen de manera sustantiva la función objetivo para dar un peso comparable a los intereses de todos los seres sintientes, corresponderían al nivel más exigente. Si introducen la regla de evitar sufrimiento significativo cuando pueda evitarse a bajo coste, aplicarían la alineación básica operativa. Y, si se limitan a impedir la trivialización o cosificación del daño hacia animales, actuarían en el plano discursivo y cultural. Lo decisivo no es el instrumento técnico, sino el alcance moral que se incorpore en él.
Además de estos tres niveles, pueden adoptarse acciones que consoliden el proceso:
Desarrollar herramientas específicas para medir sesgo especista y sustratista en LLMs
Realizar auditorías independientes sobre el impacto de sistemas de IA en el bienestar de los seres sintientes
Incorporar pruebas adversariales orientadas a detectar recomendaciones que aumenten el sufrimiento
Exigir transparencia pública sobre los principios normativos que guían la alineación
Incluir cláusulas explícitas sobre bienestar en marcos regulatorios nacionales e internacionales de IA
Financiar investigación interdisciplinar que conecte ciencia del bienestar y diseño de sistemas de IA
Aunque el ideal más exigente pueda tardar en alcanzarse, los otros niveles son viables y permitirían reducir daños evitables.
Riesgos a corto plazo
La exclusión de los seres sintientes no es una preocupación meramente teórica. A corto plazo los riesgos incluyen:
Normalización discursiva: describir la industria de explotación de animales no humanos o la experimentación en términos puramente técnicos, sin reconocer el sufrimiento implicado
Optimización sin límites morales: maximizar la productividad en sistemas de explotación animal sin integrar el bienestar como variable relevante
Daño no contabilizado: en sistemas autónomos físicos (vehículos, drones, robots), no ponderar daños evitables a animales salvajes cuando reducirlos tendría un coste mínimo
Publicidad y recomendación algorítmica: reforzar dinámicas de consumo asociadas a prácticas dañinas
Daño no contabilizado: en sistemas autónomos físicos (vehículos, drones, robots), no ponderar daños evitables a animales salvajes cuando reducirlos tendría un coste mínimo
Delegación moral acrítica: depender cada vez más de asistentes que no incluyen a todos los seres sintientes en su marco ético
En todos estos casos el problema no es necesariamente la intención de dañar, sino la ausencia sistemática de consideración.
Riesgos a largo plazo
A largo plazo, la cuestión es estructural. Si hay sistemas avanzados que participen en la planificación económica, la asignación de recursos o el diseño de políticas, los criterios incorporados en su alineación influirán en decisiones con efectos acumulativos.(11)
Existen varios riesgos en este sentido:
Externalización moral automatizada: Decisiones con impacto ético significativo podrían ejecutarse automáticamente bajo criterios incompletos.
Bloqueo de valores: Una infraestructura tecnológica global alineada exclusivamente con intereses humanos podría persistir durante décadas, incluso siglos, un sesgo inicial difícil de revertir. A diferencia de las generaciones humanas, los sistemas pueden replicarse y operar durante largos periodos con fines relativamente estables.
Amplificación del daño: La optimización tecnológica puede multiplicar el número de individuos y/o entidades afectadas, especialmente en el caso de los animales no humanos con sectores que ya involucran a miles de millones de individuos.
Escenarios de expansión: Nuevas formas de explotación automatizada, interferencias masivas en ecosistemas o creación de entidades potencialmente sintientes sin salvaguardas podrían generar cantidades de sufrimiento muy superiores a las actuales.
Exportación de diferentes formas de discriminación a nuevos entornos: En escenarios de expansión espacial o colonización de nuevos territorios, sistemas alineados exclusivamente con intereses humanos podrían reproducir y ampliar modelos de explotación a escalas mucho mayores.
Aunque algunos de estos escenarios sean inciertos, adquieren relevancia moral cuando el número potencial de individuos y/o entidades afectadas es enorme.
Conclusión
La alineación de la IA no es un problema puramente técnico. Implica decidir quién cuenta moralmente.
Si los LLMs y otros sistemas avanzados solo se alinean con intereses humanos, consolidarán y amplificarán un marco antropocéntrico que deja fuera a la mayoría de los seres capaces de sufrir. Integrar la consideración de todos los seres sintientes, al menos mediante un principio básico de minimización de daño evitable, no requiere transformaciones inmediatas radicales, pero sí coherencia ética.
A medida que la IA adquiere un papel estructural en nuestras sociedades, la pregunta ya no es si debemos alinearla con valores, sino con cuáles.
Más información: https://www.animal-ethics.org/por-que-los-modelos-de-lenguaje-actuales-deberian-alinearse-con-la-consideracion-de-todos-los-seres-sintientes/
Teaming Manager
el 11/03/2026 a las 17:53h