top of page

¿Puede la IA tomar decisiones corporativas? Límites éticos y estratégicos del gobierno automatizado

  • Gireh Encarnación
  • 2 sept
  • 11 Min. de lectura

Autora:

Gireh Encarnación, Coordinadora Maestría en Estrategia Legal (MEL) del Instituto OMG


Reseña

La inteligencia artificial (“IA”) está transformando diversos sectores, incluida la gestión empresarial, al proporcionar nuevas maneras de mejorar la eficiencia y la precisión en la toma de decisiones. Sin embargo, surge una cuestión crucial: ¿qué tan involucrada debería estar la inteligencia artificial en las decisiones corporativas? Esta interrogante es fundamental para entender cómo equilibrar el uso de la tecnología con la responsabilidad humana, la ética y la transparencia en la gobernanza corporativa.

 

I. Aplicaciones actuales de la IA en el entorno empresarial


La inteligencia artificial ha evolucionado de ser una idea futurista a convertirse en una herramienta efectiva en la toma de decisiones empresariales. Uno de sus usos más significativos es el análisis predictivo, que ayuda a anticipar escenarios en áreas clave como inversiones, gestión de riesgos, selección de talento y proveedores. Gracias al aprendizaje automático, ahora es posible procesar grandes volúmenes de datos internos y externos para identificar patrones, predecir comportamientos y tomar decisiones más estratégicas.


Por ejemplo, en el sector financiero, los algoritmos de aprendizaje automático analizan grandes conjuntos de datos históricos para predecir las tendencias del mercado y optimizar las carteras de inversión. Además, en este sector la IA puede analizar comportamientos de usuarios para detectar transacciones inusuales y prevenir fraudes financieros.[1]


En este sentido, se debe precisar que, a nivel general, la IA y la automatización están desempeñando un papel crucial en la detección y prevención del fraude corporativo. Con el análisis de patrones y el monitoreo en tiempo real, las empresas pueden identificar actividades sospechosas y actuar de manera proactiva para mitigar el riesgo. Esto es clave para mantener la confianza de los inversores y garantizar la transparencia y la integridad en los negocios.[2]


En lo que respecta al comercio electrónico, las plataformas en la nube permiten implementar chatbots basados ​​en IA para proporcionar asistencia personalizada al cliente y mejorar su experiencia de usuario.[3]


De igual modo, en los procesos de reclutamiento y selección de personal, la IA ofrece la posibilidad de procesar grandes volúmenes de datos d candidatos con una velocidad y precisión inigualables por los métodos tradicionales. En este sentido, para descubrir patrones y correlaciones que los reclutadores humanos podrían pasar desapercibidos, la IA puede analizar en cuestión de segundos miles de currículos. Esta capacidad promete no solo acelerar el proceso de selección, sino también reducir los sesgos inconscientes que pueden influir en las decisiones de contratación.[4]

 

Asimismo, con algoritmos avanzados y aprendizaje automático, las empresas pueden extraer información valiosa de los datos que recopilan, lo que permite una toma de decisiones más informada y estratégica. Esto es especialmente relevante para los ejecutivos y miembros de la junta, que necesiten acceso a información precisa y actualizada para liderar sus organizaciones de manera efectiva.[5]

 

Además, la IA y la automatización también tienen el potencial de mejorar la gobernanza ambiental y social de las empresas. A través del análisis de datos, las organizaciones pueden identificar oportunidades de sostenibilidad, reducir su impacto ambiental y fomentar prácticas comerciales responsables.[6]


Por lo tanto, la IA tiene múltiples aplicaciones que se pueden incorporar en los diferentes procesos que deben de agotar los sectores económicos, y la incorporación a estos procesos no solo optimiza tiempos y reduce errores, sino que eleva la calidad de las decisiones estratégicas, lo cual es clave en un entorno cada vez más competitivo y cambiante, como el actual.


II. Límites de la automatización en la toma de decisiones, desafíos éticos y de responsabilidad


A pesar de los múltiples beneficios que podemos obtener de la IA, especialmente en el proceso de toma de decisiones, debe realizarse una diferenciación entre las decisiones que son automatizables y las que no.

 

En el ámbito corporativo, no todas las decisiones pueden ser delegadas a sistemas automatizados. Las decisiones basadas en datos cuantificables y procesos repetitivos, como la gestión de inventarios, la segmentación de clientes o la aprobación de transacciones rutinarias, son perfectamente automatizables y contribuyen a la eficiencia operativa. Sin embargo, las decisiones estratégicas que implican dilemas éticos, juicios complejos o valores humanos, tales como definir la cultura organizacional, liderar procesos de transformación o manejar crisis reputacionales, requieren el juicio humano. Estas decisiones demandan una comprensión profunda del contexto, empatía y responsabilidad, aspectos que todavía escapan a la lógica algorítmica.

 

En este sentido, se debe señalar que las máquinas dotadas de IA toman decisiones de manera autónoma y sin supervisión humana, y si cuentan con sistemas de machine learning, son capaces de modificar su proceso de toma de decisiones en función de los inputs que reciben. Ante la incomprensión de su funcionamiento y la apariencia de que las decisiones son como las de un humano, se atribuiría a la IA rasgos que no posee, como el de comprender el significado de sus acciones. La IA se define por los resultados que produce, no por cómo llega a ellos.[7]


Es importante precisar que los desafíos éticos de la IA no pueden tratarse como un aspecto secundario o posterior a la implementación, sino como un eje estructural del diseño y uso de los sistemas inteligentes.[8]


En este sentido, se debe destacar que la implementación de la IA y la automatización en el gobierno corporativo requieren cuidado y consideraciones éticas. Los algoritmos deben diseñarse de manera imparcial y transparente, evitando sesgos y discriminación. Además, la protección de datos y la privacidad de las partes interesadas son aspectos claves que deben abordarse.[9] Dado que la ética en la inteligencia artificial empresarial es crucial para garantizar que el uso de la IA respete los derechos humanos, promueva la equidad, evite la discriminación y proteja la privacidad, asegurando así la confianza de los consumidores y la sostenibilidad a largo plazo de las organizaciones.[10]


La ética y la responsabilidad en la inteligencia artificial son esenciales para garantizar que estas tecnologías se utilicen de manera justa, segura y beneficiosa. Las empresas tienen la responsabilidad de liderar con el ejemplo, adoptando prácticas éticas, implementando marcos de gobernanza sólida y fomentando la confianza entre sus empleados, clientes y la sociedad en general. Una IA ética no solo es un imperativo moral, sino también un factor clave para la sostenibilidad y el éxito a largo plazo en el entorno empresarial.[11]


Por otro lado, la capacidad de la IA de operar con aparente autonomía y racionalidad, especialmente en el proceso de la toma de decisiones de las empresas ha generado un desplazamiento en la percepción de responsabilidad.


La utilización de IA contribuye a restar responsabilidad a los agentes humanos. Hay evidencias de que se atribuye menos culpa a un humano ante un resultado negativo cuando han delegado en una IA que cuando actúa solo[12].

 

La agencia indirecta (cuando una persona actúa por mediación de otros agentes) reduce los procesos que regulan el comportamiento poco ético. Cuando una persona actúa a través de otros agentes humanos en lugar de hacerlo directamente (i.e., el gerente de una empresa da instrucciones a sus supervisores para que las ejecuten) la distancia psicológica con las consecuencias del comportamiento se reduce debido a la separación tanto en el tiempo como en el espacio de la decisión de ejecutarlo. Cuando se ejerce una agencia indirecta a través de la IA, las personas están más dispuestas a engañar, son responsabilizadas en menor medida y además anticipan que esto será así[13].

 

Los sistemas de IA no tienen motivaciones o consciencia, por lo que no puede en ningún caso atribuírseles responsabilidad y tampoco tienen personalidad legal. Además, si se le atribuyese responsabilidad a una IA, se estaría restando responsabilidad a los agentes humanos que han promovido, diseñado o usado esa IA[14]. En definitiva, la IA no puede ser moralmente responsable porque no es un agente moral, sino un proxy moral del humano responsable[15]. Por otro lado, los sistemas de IA no pueden ser castigados o recompensados, por lo que no tiene sentido considerarlos responsables de los resultados de sus acciones. Los castigos y recompensas tienen el objetivo de conseguir un cambio en el comportamiento del culpable de una acción, lo que no tiene sentido en el caso de una máquina que puede ser reprogramada si provoca un daño[16].

 

La responsabilidad de las acciones de una IA debe pues atribuirse a humanos. En este sentido, los humanos serían los “autores intelectuales” de las acciones de una IA. Asimismo, puede atribuirse responsabilidad a la persona que dirige o es propietaria de un sistema de IA, de la misma manera que el propietario de una empresa es responsable por las acciones de esta, aunque no las ordene directamente.[17]

 

En este aspecto, de acuerdo a lo dispuesto por la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (“UNESCO”) en su Recomendación sobre la Ética de la Inteligencia Artificial, adoptada en noviembre de 2021: “los Estados Miembros deberían velar por que siempre sea posible atribuir la responsabilidad ética y jurídica, en cualquier etapa del ciclo de vida de los sistemas de IA, así como en los casos de recurso relacionados con sistemas de IA, a personas físicas o a entidades jurídicas existentes.[18]

 

Asimismo, dispone que puede ocurrir que, en algunas ocasiones, los seres humanos decidan depender de los sistemas de IA por razones de eficacia, pero la decisión de ceder el control en contextos limitados seguirá recayendo en los seres humanos, ya que estos pueden recurrir a los sistemas de IA en la adopción de decisiones y en la ejecución de tareas, pero un sistema de IA nunca podrá reemplazar la responsabilidad final de los seres humanos y su obligación de rendir cuentas.[19]


En consecuencia, en el uso de la IA por parte de las corporaciones, es necesario considerar que: (1) independientemente de las mejoras operativas que puedan lograrse, especialmente en términos de reducción de tiempos de respuesta y eficiencia en los procesos, las decisiones que surjan de estos procesos deben limitarse a situaciones que no impliquen juicios de valor complejos ni afecten derechos fundamentales. En otras palabras, su aplicación debería restringirse a contextos rutinarios o automatizables, caracterizados por patrones repetitivos y reglas bien definidas, donde el margen de interpretación humana y la influencia de factores externos sean mínimos; y (2) aunque las decisiones puedan ser tomadas con el apoyo de sistemas de IA, la responsabilidad última debe recaer en la persona que supervisa o autoriza el proceso. La intervención de la IA en el análisis o recomendación no justifica, bajo ninguna circunstancia, una disminución en el grado de responsabilidad atribuible a los agentes humanos involucrados. La delegación tecnológica no puede reemplazar la rendición de cuentas.


III. Implicaciones y retos para el gobierno corporativo


De acuerdo con lo dispuesto por la Organización para la Cooperación y el Desarrollo Económicos (“OCDE”) en su publicación sobre “Principios de Gobierno Corporativo de la OCDE y del G20 2023”: “La adopción de soluciones digitales en los procesos de regulación y supervisión también conlleva retos y riesgos. Reviste gran importancia, entre otros aspectos, garantizar la calidad de los datos y la adecuada competencia técnica del personal, sopesar la interoperabilidad entre sistemas al desarrollar formatos de información y gestionar las dependencias de terceros y los riesgos para la seguridad digital. Cuando se recurre a la inteligencia artificial y la toma de decisiones algorítmicas en los procesos de supervisión, es fundamental mantener un elemento humano para mitigar los riesgos de incorporar los sistemas existentes en los modelos algorítmicos y los derivados de una dependencia excesiva de los modelos y las tecnologías digitales.”[20]


En esta línea, la UNESCO ha señalado que los Estados Miembros y las empresas deben implementar medidas adecuadas para supervisar todas las fases del ciclo de vida de los sistemas de IA en el marco de la evaluación del impacto ético, incluyendo el funcionamiento de los algoritmos utilizados para la toma de decisiones, los datos y los actores de la IA involucrados, especialmente en servicios públicos y en situaciones que requieren interacción directa con el usuario final. Las obligaciones de los Estados Miembros respecto a los derechos humanos deben ser parte integral de las evaluaciones éticas de los sistemas de IA.[21]


Teniendo en cuenta estas consideraciones, entendemos que el avance y adopción de la inteligencia artificial en las organizaciones presenta nuevos desafíos para el gobierno corporativo, el cual debe asumir un papel proactivo en la regulación interna del uso de estas tecnologías. En este contexto, es fundamental establecer marcos internos claros y éticos que guíen la implementación de sistemas de IA, asegurando su alineación con los valores corporativos y los principios de legalidad y transparencia. Asimismo, surgen nuevas responsabilidades para los consejos directivos, quienes deben no solo supervisar el desarrollo y aplicación de estas herramientas, sino también asegurar que su uso sea comprensible, auditable y respetuoso de los derechos fundamentales.

 

Adicionalmente, el desarrollo de pautas éticas y políticas internas es esencial para garantizar que el uso de la IA en las organizaciones se ajuste a los valores corporativos, respete los derechos de las personas y mitigue los riesgos asociados a problemas legales, sociales y de reputación. Como director o gerente de una organización, es relevante tener claro que este proceso debe estructurarse estratégicamente para que las tecnologías implementadas no solo impulsen la eficiencia, sino que también sean responsables y transparentes[22].

 

Conclusión

 

La inteligencia artificial tiene el potencial de aumentar significativamente la eficiencia y reducir el error humano en los procesos corporativos. Sin embargo, es fundamental que la incorporación de la IA no sustituya la responsabilidad y rendición de cuentas humanas en la toma de decisiones.

 

El futuro del gobierno corporativo debe basarse en una colaboración equilibrada entre la inteligencia artificial y la humana, donde la IA actúe como una herramienta que apoye, pero no reemplace, el juicio ético y la responsabilidad de las personas. Así, el gobierno corporativo debe asumir un rol activo para garantizar que el uso de la IA contribuya a la integridad, la sostenibilidad y la confianza dentro de las organizaciones.

 


Bibliografía


[1] Folgado Galache, Laura. Digitalización aplicada a los sectores productivos. Editorial Editex. 2024, p. 6.

[2]  Fabricio Sales Silva, Gobierno Corporativo: Integridad y Transparencia, 1ª ed., Ciudad de México, Tirant lo Blanch, 2021, p. 203.

[3] Íbidem

[4] Gonzabay Quiñonez, Israel. El rol de la Inteligencia Artificial en los procesos de reclutamiento y selección en la Gestión del Talento Humano. Reincisol. Ciencia y Desarrollo Social. 2024, pp. 3880-3902. disponible en: https://www.reincisol.com/ojs/index.php/reincisol/article/view/396

[5] Sales Silva, op. cit., p. 208.

[6] Ibíd., p. 209.

[7] King, T.C., Aggarwal, N., Taddeo, M. Y Floridi, L., “Artificial Intelligence Crime: An Interdisciplinary Analysis of Foreseeable Threats and Solutions”. Science and Engineering Ethics, 26(1), 2020, pp. 89-120.

[8] Nicolás Ramírez, “IA en Negocios: Aplicaciones más novedosas”, Business Magazine, ADEN International Business School, [en línea], p. (sin paginación), disponible en: https://www.aden.org/business‑magazine/ia‑en‑negocios‑aplicaciones‑mas‑novedosas/ (consulta: 27 de agosto de 2025).

[9] Sales Silva, op. cit., p. 203.

[10] Ramírez, op. cit.

[11] César Montoya, Inteligencia artificial aplicada a las organizaciones, Ediciones de la U, Bogotá, 2025, p. 175.

[12] FEIER, T., GOGOLL, J., y UHL, M., “Hiding Behind Machines: Artificial Agents May Help to Evade Punishment”, en Science and Engineering Ethics, 28(2), Article 19, 2022.

[13] GRATCH, J. y FAST, N.J., “The power to harm: AI assistants pave the way to unethical behavior”, en Current Opinion in Psychology, 47, 2022.

[14] KING, T.C., AGGARWAL, N., TADDEO, M. y FLORIDI, L., “Artificial Intelligence Crime: An Interdisciplinary Analysis of Foreseeable Threats and Solutions”. Science and Engineering Ethics, 26(1), 2020, pp. 89-120.

[15] GOGOLL, J. y MULLER, J.F., “Autonomous Cars: In Favor of a Mandatory Ethics Setting”, en Science and Engineering Ethics, 23(3), 2017, pp. 681-700.

[16] TIGARD, D.W., “Artificial Moral Responsibility: How We Can and Cannot Hold Machines Responsible”, en Cambridge Quarterly of Healthcare Ethics, 30(3), 2021, pp. 435-447.

[17] Espinosa, P., y M. Clemente,. «La percepción De La Toma De Decisiones a través De Inteligencia Artificial Cuando Se Produce daño a Las Personas». Estudios Penales Y Criminológicos. Universidad de Santiago de Compostela.Vol. 44, n.º Ext., noviembre de 2023, pp. 1-13, doi:10.15304/epc.44.8917.

[18] UNESCO. Recomendación sobre la ética de la inteligencia artificial, adoptada el 23 de noviembre de 2021, párr. 35.

[19] Ibíd., párr. 36.

[20] OECD, Principios de Gobierno Corporativo de la OCDE y del G20 2023, OECD Publishing, París, 2024, p. 16. Disponible en: https://doi.org/10.1787/fb38c737-es

[21] UNESCO, op. cit., párr. 52.

[22] Montoya, op. cit., p. 179.

Comentarios


Ya no es posible comentar esta entrada. Contacta al propietario del sitio para obtener más información.
Instituto OMG

Email: info@iomg.edu.do

T: 809.533.8826

Rafael Augusto Sánchez 86,
Roble Corporate Center,

Piso 9, Piantini
Santo Domingo, Rep. Dom. 

C.P. 10148

Suscribirse

  • YouTube - Black Circle
  • Instagram IOMG
  • Facebook - IOMG
  • Twitter - IOMG

© 2025 Instituto OMG. Todos los derechos reservados

bottom of page