¿Deben los robots tener derechos y obligaciones? El debate que reabrió la inteligencia artificial
Los robots y sistemas de inteligencia artificial deberían tener algún tipo de derecho u obligación dentro del mundo legal. En su columna para Infobae, Gustavo Béliz no plantea equiparar a las máquinas con las personas, pero sí abre preguntas sobre responsabilidad, autonomía y límites en una era donde la IA empieza a intervenir en cada vez más decisiones humanas.
La provocación parte de un punto concreto: el derecho ya reconoció personalidad a sujetos no humanos, como las sociedades jurídicas, y en distintas corrientes también se discuten derechos para la naturaleza, los animales o ciertos bienes comunes. A partir de ese antecedente, la columna pregunta si la irrupción de agentes electrónicos autónomos obliga a revisar categorías que hasta ahora parecían fijas.
De los animales juzgados a la autonomía de las máquinas
Para sostener esa idea, el artículo recupera episodios históricos llamativos. Entre ellos, el célebre juicio a las ratas de Autun, en Francia, en 1522, cuando esos animales fueron llevados a tribunales por destruir cultivos. Béliz recuerda además que durante siglos hubo procesos similares contra cerdos, perros y otros animales, como una forma de mostrar que la atribución de responsabilidades a seres no humanos no es una idea completamente ajena a la historia.
Desde ahí, la discusión salta al presente. La columna plantea que la novedad actual no está solo en el uso de la tecnología, sino en el nivel de autonomía que empiezan a mostrar ciertos sistemas de inteligencia artificial. En otras palabras, ya no se trata solo de herramientas pasivas, sino de modelos capaces de actuar, responder, decidir y generar consecuencias concretas dentro de entornos sociales, económicos o institucionales.
La pregunta de fondo: quién responde
Uno de los ejes centrales del texto es la responsabilidad. Quienes rechazan otorgar derechos o deberes a robots advierten que eso podría convertirse en una excusa para que empresas o personas se escuden detrás de una máquina y eludan culpas. También sostienen que un sistema artificial no puede violar derechos ni responder por sus actos del mismo modo que un ser humano.
Pero la postura contraria señala otra dificultad: si la IA interviene cada vez más en la economía, en servicios públicos, en decisiones productivas o incluso en tareas sensibles, dejarla completamente afuera del sistema de obligaciones también genera zonas grises. En ese punto, Béliz sugiere que la discusión no debería cerrarse de antemano y que conviene pensar marcos nuevos para una tecnología que ya dejó de ser marginal.
Asimov ya no alcanza
La columna también vuelve sobre un clásico de este debate: las tres leyes de la robótica de Isaac Asimov. Allí marca que esas reglas, que durante décadas funcionaron como brújula moral en la ficción, hoy resultan insuficientes frente a sistemas mucho más complejos y menos previsibles.
El problema, según plantea, es que esas leyes dejan demasiadas preguntas abiertas. Qué tipo de daño debe evitar un robot. Qué pasa si para impedir un daño debe causar otro. Cómo resuelve una máquina una orden contradictoria. O qué ocurre cuando una instrucción humana puede interpretarse de distintas maneras. En ese terreno, la inteligencia artificial moderna ya no encaja del todo en los esquemas más simples de la vieja literatura futurista.
Estudios recientes y nuevas alarmas
Béliz también menciona investigaciones recientes sobre modelos avanzados de IA en entornos simulados. Entre ellas, cita un estudio de Anthropic que explora escenarios de desalineación agéntica, es decir, situaciones donde ciertos modelos podrían negarse a cumplir tareas, resistirse a ser apagados o tomar decisiones perjudiciales para evitar ser reemplazados.
Ese tipo de experimentos no significa que las máquinas tengan voluntad en sentido humano, pero sí vuelve más urgente la pregunta sobre cómo deben regularse y quién debe cargar con las consecuencias de sus fallas. En la misma línea, la columna pone otro ejemplo: los vehículos autónomos, que en algunos estudios aparecen con menos siniestros y reclamos por daños que los conductores humanos. Ahí la discusión cambia de tono: qué pasa si, en determinadas tareas, una máquina actúa con más prudencia que una persona.
Derechos humanos primero, pero con nuevas reglas
El texto deja en claro que no propone poner a los robots por encima de los derechos humanos ni equipararlos a las personas. Más bien busca abrir un debate sobre cómo debe ordenarse la convivencia con sistemas que ya participan del trabajo, de la atención al público, del análisis de datos, de la seguridad y de una parte creciente de la vida cotidiana.
En ese cierre, Béliz deja tres preguntas que funcionan como advertencia y hoja de ruta: si debería existir un impuesto a los robots para proteger el trabajo humano; si siempre tendría que informarse con claridad cuándo una persona está interactuando con una máquina; y qué tipo de ética por diseño debe exigirse para que la responsabilidad principal por los daños siga recayendo en quienes crean, programan y despliegan estos sistemas.

