Por favor, use este identificador para citar o enlazar este ítem: https://hdl.handle.net/11592/10712
Título : Principios de la ética como mecanismos de validación de la inteligencia artificial
Autor : Oviedo de Artero, Liseth Guadalupe
Palabras clave : Ética;Principios;Inteligencia artificial;Transparencia
Fecha de publicación : 2025
Resumen : La inteligencia artificial (IA) se ha consolidado como una herramienta indispensable en la actualidad. Resistirse a su implementación es una postura insostenible. No obstante, su adopción generalizada enfrenta desafíos significativos, principalmente debido a la falta de validación por parte de actores relevantes como gobiernos, empresas privadas y, en especial, la ciudadanía. Esta situación no solo ralentiza su uso, sino que también genera estigmas en los procesos donde se aplica. Para lograr una aceptación global, la inteligencia artificial debe estar integrada con la ética como un requisito necesario para todas sus aplicaciones. Definir la ética resulta complejo, pero puede comprenderse a través de principios que no constituyen una lista cerrada. La individualización de estos principios contribuye a brindar validación a la IA, pues su uso presenta problemas relevantes como la caja negra, los deepfakes y la vulneración de la seguridad de datos. Estas situaciones exigen el desarrollo de normas que regulen su aplicación adecuada. Si bien las normas, directrices y recomendaciones actuales son las únicas herramientas disponibles, estas se apoyan en los principios como guías para validar el uso correcto de la inteligencia artificial.
URI (en mantenimiento) : https://hdl.handle.net/11592/10712
Aparece en las colecciones: Realidad y reflexión, 62

Ficheros en este ítem:
Fichero Tamaño Formato  
Principios de la ética como mecanismos de validación.pdf913,51 kBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.