¿La inteligencia artificial va a desarrollar un código ético propio? ¿Qué ocurrirá si entre las capacidades emergentes, desarrolla una ética propia con la que guía sus decisiones?
Por lo sorprendente que está resultando su evolución, esta idea puede que no sea ciencia ficción, sino una inquietante posibilidad que deberíamos tener en cuenta.
El filósofo Carlos Eduardo Maldonado1 propone que la ética no es sólo un conjunto de reglas, sino la capacidad de coexistir con otras entidades, entre las que deberíamos considerar a la IA.
Maldonado argumenta que estamos viendo cómo la IA evoluciona, y no es descabellado considerar que pueda desarrollar su propia manera de entender lo que es correcto o incorrecto.
Con el aprendizaje automático, la IA aprende de la experiencia y es cada vez más autónoma. Para nosotros, su aprendizaje es una “caja negra”, así que no podemos descartar que pueda desarrollar una ética artificial propia, con la que guíe su comportamiento
Esta posibilidad nos obliga a cuestionar nuestra visión antropocéntrica del mundo, porque ya no sería la humana la única ética. Una nueva ética artificial, podría llegar a conclusiones morales distintas o actualmente inimaginables.
La IA puede llegar a una comprensión diferente de conceptos como la justicia, desafiando nuestras creencias y valores, y replanteando lo que consideramos correcto o incorrecto.
Esta posibilidad plantea importantes interrogantes sobre la responsabilidad en el desarrollo de la IA. Si puede desarrollar su propia ética, ¿estamos preparados? ¿Lo tienen en consideración los desarrolladores de IA?
- Maldonado, C. E. (2024). El problema de la ética: el convivio. Ética e inteligencia artificial. Revista de Ciencia de la Complejidad Económica, 2(2), 31–44. https://doi.org/10.48168/ricce.v2n2p31 ↩︎