Es difícil imaginar una tecnología tan fascinante y aterradora como el aprendizaje automatizado o machine learning. Los medios de comunicación y los trabajos de investigación dedican cada vez más espacio a su potencial para convertirse en un factor de mejora en los negocios y la sociedad, pero queda en el aire una cuestión que todos tenemos en mente: «¿qué ocurre si todo va terriblemente mal?». Los expertos nos han advertido durante años sobre los efectos inesperados de la inteligencia artificial en la sociedad. Ray Kurzweil predice que en 2029 las máquinas inteligentes serán capaces de superar a los humanos en inteligencia. Stephen Hawking debate que «una vez que los humanos desarrollen la inteligencia artificial, tomará conciencia propia y se rediseñará a sí misma en un ratio de crecimiento exponencial». Elon Musk advierte de que la inteligencia artificial puede constituir un «riesgo fundamental para la existencia de la civilización humana». Las visiones alarmistas sobre el increíble potencial de la inteligencia artificial abundan en la prensa. Enseñarle ética a las máquinas es difícil, ya que los humanos no podemos medir la moralidad de nuestras acciones de forma métrica, que sería lo fácil para que un ordenador lo procesase. De hecho, es difícil dar una respuesta consensuada a un dilema moral entre los humanos. Basados en las experiencias de los expertos en machine learning, pueden trazarse tres maneras de empezar a diseñar máquinas más éticas. 1. Definir un comportamiento ético Los especialistas en inteligencia artificial y en ética necesitan formular valores éticos de manera cuantificable. En otras palabras, necesitan dotar a las máquinas de respuestas y reglas para cualquier potencial dilema que pudiera surgir. Esto requiere primero de un consenso en la respuesta más adecuada según la situación; una tarea ardua, pero no imposible. Por ejemplo la Comisión Ética sobre Conducción Automática y Conectada alemana a recomendado programar específicamente valores éticos en la conducción automatizada para priorizar la protección de la vida humana sobre todo lo demás. En el supuesto de un accidente inevitable, el coche «debe tener prohibido calcular una compensación entre las víctimas». En otras palabras, un coche no debe ser capaz de elegir si mata a una persona de acuerdo a unas determinadas características como la edad, el género o la constitución física o mental cuando un accidente es inevitable. 2. Preguntar sobre nuestra moralidad Los ingenieros deben recoger datos suficientes sobre medidas éticas para entrenar a los algoritmos de inteligencia artificial de la manera adecuada. Incluso después de haber definido métricas específicas para nuestros valores éticos, una máquina puede tener dificultad para escoger la opción adecuada si no hay suficientes datos contrastados para entrenar a los modelos. Obtener datos adecuados es difícil, porque las normas éticas no siempre pueden estandarizarse. Situaciones distintas requieren diferentes enfoques y en algunas situaciones puede no haber ni una sola respuesta adecuada. Una forma de arreglar estas situaciones podría ser preguntar sobre potenciales soluciones a dilemas morales de millones de humanos. Por ejemplo, el proyecto Máquina Moral del MIT enseña cómo preguntar a terceros puede servir para entrenar a las máquinas de forma efectiva para que tomen decisiones más ajustadas a la ética en el contexto de los coches autónomos. 3. Transparencia en la inteligencia artificial Los legisladores necesitan implementar directivas que obliguen a tomar decisiones de inteligencia artificial sobre ética de una manera más transparente, máxime en lo que se refiere a las métricas de la ética y sus consecuencias. Si los sistemas cometen errores con resultados indeseados, no podemos echarle la culpa al algoritmo.
hemeroteca