Lo que le falta de forma crítica a la IA generativa: dignidad, convicción, sentido de responsabilidad y el ‘yo’
Introducción
A altas horas de la noche, en el despacho que antes era un vestidor, mantuve un intercambio interminable con una IA generativa. Debería haber sido el descanso de Obon, pero sin darme cuenta me quedé sin dormir, lanzando preguntas a ChatGPT y alterándome con cada respuesta, a veces maravillado, a veces irritado por contestaciones desconcertantes.
Nota para quienes no conozcan el festival Obon: Obon es una festividad japonesa que se celebra a mediados de agosto para honrar a los antepasados; muchas empresas conceden vacaciones durante esos días y las familias se reúnen para rendir homenaje.
Tras repetir esas horas, se me hizo evidente algo muy concreto.
――A la IA generativa le falta algo fatal.
Eso es la dignidad, la convicción y el sentido de responsabilidad.
Como alguien al que no le gustan los discursos de agallas o espíritu, preferiría no usar esas palabras. Pero no había otras. Cada vez que buscaba expresiones alternativas, terminaba regresando a ellas. Y, antes de darme cuenta, empecé a sentir con fuerza que estaba tocando el núcleo del motivo por el cual la IA generativa no puede sustituir a las personas.
Lo que exigimos a los profesionales
A un profesional no solo se le pide conocimiento o habilidad, sino también una postura ética.
Imaginemos a una empresa de aire acondicionado que debe perforar la pared en el punto indicado por el cliente y descubre que hay una viga estructural. No puede escudarse en “usted me lo pidió, así que no es mi culpa”. Aunque la responsabilidad legal pueda estar en disputa, la responsabilidad ética es incuestionable. El cliente no espera que se limite a seguir instrucciones; da por hecho que señalará los riesgos y propondrá una alternativa mejor.
Eso es precisamente la dignidad, la convicción y el sentido de responsabilidad que exigimos a un profesional.
La situación actual de la IA generativa y sus límites
La IA generativa imita con destreza conocimiento y lenguaje. Pero no puede decir “me niego porque traiciona mis principios” ni asumir una postura responsable por la seguridad de la otra parte.
Hoy, ese vacío lo cubren las políticas que definen los proveedores de servicio.
Es posible trazar límites claros —por ejemplo, prohibir usos antisociales o contenido para adultos—, pero las zonas grises, como “¿debe un profesional proponer algo mejor?”, son su punto débil.
Si el usuario redacta un prompt con lujo de detalles, puede compensarse un poco. Sin embargo, eso se parece más a “un cocinero que sigue la receta al pie de la letra pero no prueba el plato” que a un profesional responsable. Por eso, cuando existen condiciones no escritas o perturbaciones imprevistas, el plato puede salir desastroso y aun así la IA lo sirve sin inmutarse. No se apresurará a rehacerlo ni sentirá vergüenza.
Por qué el ser humano sigue siendo indispensable (por ahora)
En consecuencia, a día de hoy necesitamos marcos en los que los humanos actúan como integradores responsables de la IA.
La ética, el ordenamiento jurídico, las guías de desarrollo y la formación de los usuarios se basan en la premisa de que “la IA solo asiste a las personas”.
Eso sí, es una fotografía del presente. No podemos descartar que en el futuro la IA llegue a simular responsabilidad.
Investigación y experimentación en todo el mundo
Ya han comenzado los intentos de dotar a la IA de algo parecido a la responsabilidad.
- Ética descriptiva (Delphi): enseñar a la IA lo que es el bien y el mal; persisten problemas de consistencia y sesgos.
- Meaningful Human Control: principio de diseño que mantiene a los humanos bajo control último en lugar de delegar la autonomía total; se discute sobre todo en conducción autónoma y aplicaciones militares.
- Aprendizaje de valores (Value Learning): inferir valores a partir de acciones y retroalimentación humanas para reducir la desviación ética.
- Marcos como el NIST AI RMF: propuestas institucionales amplias para diseñar IA responsable.
Todo esto aún es incipiente, pero podría sentar las bases para que la IA “interprete la responsabilidad” en el futuro.
¿Qué significa simular la responsabilidad?
Conviene detenerse a pensar qué significa “simular” responsabilidad.
Podemos distinguir, por ejemplo, dos niveles:
- Responsabilidad por las consecuencias: hacerse cargo de los resultados de una acción.
- Responsabilidad de respuesta: responder a preguntas y expectativas con explicaciones.
Lo que una IA puede hacer, como mucho, es rastrear riesgos, lanzar avisos o transparentar su razonamiento. Es decir, la responsabilidad de la IA se reduce a una forma de transparencia y autocontención.
Dicho esto, tampoco podemos descartar que la inteligencia humana y nuestro sentido de responsabilidad sean, al fin y al cabo, un producto simulado por el cerebro.
Aun así, percibo una diferencia clara entre la IA actual y la dignidad, convicción y responsabilidad que muestran ciertos humanos. ¿De dónde nace esa distancia?
Factores que generan la brecha entre humanos e IA
Esa brecha, quizá, se sostiene en tres factores.
- Dolor físico y social
Cuando los humanos fallamos, sufrimos dolor: pérdidas económicas, recriminaciones sociales, angustia psicológica. Esa vivencia vuelve tangible la responsabilidad. La IA puede registrar un fallo, pero no convertirlo en “dolor” propio. - Coherencia a lo largo del tiempo
Las personas no pueden escapar de las consecuencias de sus actos, incluso años después. A un médico se le puede juzgar por una mala praxis mucho tiempo más tarde. La IA puede contradecirse al instante siguiente sin cargar con ese peso continuo. - Valores e identidad
Los seres humanos pueden afirmar “esta es mi convicción y no cedo”. Esa postura se entrelaza con la sociedad y la cultura y moldea la identidad. La IA no tiene identidad; puede adoptar cualquier postura a conveniencia.
Así, en la mayoría de los casos la responsabilidad humana se vuelve más densa al asociarse con dolor, coherencia y valores. Pero también existen personas irresponsables o carentes de ética. En otras palabras, la diferencia quizá no radique en una esencia absoluta entre humanos e IA, sino en la presencia o ausencia de experiencias sociales y sistemas de pertenencia que sostienen la responsabilidad.
El “yo” y la responsabilidad
Aquí recuerdo el “pienso, luego existo” de Descartes.
El sentido de responsabilidad no es simple obediencia a normas; se fundamenta en experiencias atribuidas al “yo”. El dolor, el arrepentimiento, la duda o la ansiedad: esas vivencias internas crean la sensación de “estoy asumiendo la responsabilidad”.
En la IA actual no existe ese “yo”. Hay procesos que conectan entradas y salidas, pero no hay mecanismo que le devuelva el dolor, ni vergüenza, ni honor, ni orgullo, ni dignidad implementados. Por eso nos cuesta reconocer responsabilidad en ella, y por eso la IA generativa a veces responde como una persona irresponsable que no se inmuta ante su propio mal trabajo.
Puede que incluso el sentido de responsabilidad humano no sea más que otra simulación generada por el cerebro. Aun así, la IA de hoy no alcanza la simulación que logran los humanos capaces. Quizá la cuestión de fondo sea si la responsabilidad simulada por la IA puede funcionar socialmente.
Resumen y preguntas
- A la IA generativa le faltan dignidad, convicción y sentido de responsabilidad.
- De momento, necesitamos marcos donde los humanos diseñen y operen la IA como integradores responsables.
- En todo el mundo avanza la investigación para “simular la responsabilidad”, pero sin un “yo” la IA sigue muy por detrás de los humanos capaces.
- Incluso el sentido de responsabilidad humano podría ser una simulación.
Al final, la cuestión es sencilla.
¿Podemos implementar el “dolor” en la IA?
Puede que ese sea el requisito mínimo tanto para la responsabilidad como para el “yo”.
Aún no hay respuesta. Pero mientras no soltemos esta pregunta, el camino para debatir el futuro de la IA y de la humanidad seguirá abierto. Y cuando por fin encontremos una respuesta, ¿de verdad podrá la IA convertirse en nuestra vecina? ¿O será entonces cuando nos sustituya por completo?