Parte I: Breve inventario sobre las últimas “revoluciones” industriales.
En el año 2006 el Parlamento Europeo acuñó el término Tercera Revolución Industrial.
Una década después, el fundador del Foro Económico Mundial acuñaba el término Industria 4.0, recogiendo así una serie de avances tecnológicos como la robótica, inteligencia artificial, cadena de bloques, nanotecnología, internet de las cosas, impresión 3D y vehículos autónomos.
No se han cumplido dos años desde que se empezó a hablar de la Industria 5.0, poniendo el énfasis en el uso de la inteligencia artificial y la colaboración entre máquinas y humanos para ser más eficientes y productivos.
Han saltado señales de alarma, tanto por el efecto de la IA en el empleo como por las dudas de carácter ético sobre su utilización.
Así puede explicarse la solicitud de una moratoria firmada por más de 1000 empresarios, investigadores e intelectuales para la implantación del Chat GPT, una herramienta de la IA capaz de competir con los humanos en un número creciente de tareas y que pueden utilizarse tanto para destruir empleo como para crear y difundir informaciones falsas de aspecto tan real que resultan imposibles de diferenciar de las auténticas. Según los firmantes de la petición – entre los que se encuentra Elon Musk, uno de los creadores del Chat GPT – “es necesario saber que la IA avanzada puede presentar un cambio profundo en la historia de la vida en la Tierra y debería ser planificada, gestionada y reglada con exquisito cuidado”
Esta breve revisión de la prensa económica puede explicar el destacado titular que se infiere de muchos artículos: La inteligencia artificial, ¿oportunidad o amenaza?
Me parece útil transmitir algunas reflexiones sobre la IA que he seleccionado de diferentes lecturas. Y, aprovecho para informar que no es nueva mi inquietud por la insistencia en “encorsetar” los fenómenos biológicos en fórmulas.
Hace ya muchos años, cuando empezaba a investigar sobre las enfermedades de las plantas, escribí una reflexión que ha permanecido conmigo hasta el presente: “En la composición de esta obra, no se ha podido escapar al proceso intelectual que, inquietante, domina: reemplazar las realidades por su expresión matemática.
La aseveración, aparentemente, satisface el espíritu de una mayoría, para la cual se tiene la impresión de que la fórmula, aporta no solamente una mejor, sino una total compresión del fenómeno biológico en estudio.
Konrand Lorenz lo resumió de la siguiente manera: “Las ciencias son hoy objeto de un cierto menosprecio debido a una actitud, casi convertida en artículo de fe, consistente en negar la percepción como fuente de conocimiento científico”.
Mi experiencia, trabajando con plantas y los microorganismo que las enferman me ha permitido comprobar que la observación anterior ha sido permanente.
Parte II: Un congreso sobre la IA
Este apartado tiene el interés de llevar al lector hacia una reflexión moderada, sobre aquello que la IA no debería sobrepasar, máxime cuando se carece de experiencia.
Celebrado en el pasado mes de enero en Oxford (Reino Unido), fue patrocinado por el equipo de ética en la IA del departamento de Filosofía.
Dada mi ignorancia sobre el “mundo” de los ordenadores, me he apoyado en el artículo titulado: “El derecho a ser juzgados por humanos”, cuyo autor es Michael Ignatieff, presidente del consejo asesor del instituto para la ética en la IA de la Universidad de Oxford.
El autor se plantea la siguiente reflexión: ¿Deberíamos tener los seres humanos el recurso de apelación contra los juicios emitidos por una máquina?
1er ejemplo: Los radares de tráfico
Estos mecanismos pueden detectar en las carreteras si un automóvil excede el límite de velocidad, siendo por ello merecedor de una sanción.
Supóngase, que el exceso de velocidad se corresponde con el hecho de que el automóvil transporta una mujer que está de parto. Sería injusto que no hubiese un humano que no escuchase la justificación para anular la multa.
2º ejemplo: Los diagnósticos médicos y los algoritmos
Los diagnósticos médicos utilizan algoritmos para interpretar imágenes en las tomografías de pulmones y pechos para detectar “áreas problemáticas”
Se sabe que los algoritmos se han construido a partir de recopilación sistemática de macrodatos sobre la incidencia de cáncer de pulmón, y puede detectar zonas problemáticas en una imagen escaneada que se le ha escapado al médico.
Sin embargo, en la actualidad los algoritmos proporcionan mayores tasas de falsos positivos que las obtenidas por el especialista humano.
¿Será la IA capaz de sustituir a un especialista humano que proporciona al paciente su derecho a ser tratado como humano: discutir sobre el tratamiento, por ejemplo? ¿O, en el caso de que algo vaya mal, ejercer el derecho a pedir cuentas?
Cuando ocurra que las máquinas lo hagan mejor, ¿cómo reaccionaremos?
3er ejemplo: Las sentencias judiciales y los algoritmos
La publicación de estudios que han evidenciado como las decisiones de los jueces de Estados Unidos de Norteamérica, están modificadas por influencia raciales, sociales y de género, a lo que se une el llamativo hecho de que no fallan igual antes que después de comer.
¿Por qué, entonces, no se introducen centenares de años de jurisprudencia y se emplea para que se pronuncie sobre cada caso el algoritmo?
Si se es partidario de que la justicia tenga una aplicación imparcial, coherente e inflexible de una regla judicial a un caso concreto, en esa situación considerará que las máquinas con sus algoritmos “dicten” sentencias similares para casos similares.
Sin embargo, si se considera que la justicia puede templar la coherencia con la misericordia en adaptar las reglas a las circunstancias, no es impropio preferir a un juez humano.
Parece que existen motivos fundados para suponer que las máquinas, por mucha competencia que acumulen, nunca entenderán aquello que nos hace humanos.
Frente a la ponderación que amplia nuestra esperanza, existen opiniones radicalmente opuestas.
Es el caso del profesor Nourid Roubini que afirmaba recientemente: “La inteligencia artificial nos va a sustituir a todos. También a usted”.
Su justificación es igualmente taxativa: “cualquier cosa que usted haga, una máquina lo hará mejor”. Desde la Universidad de Granada, la doctora Natalia Díaz, aporta matices muy importantes sobre la IA.
Por ejemplo: “habrá que educar a las personas con espíritu crítico y que no de por bueno todo lo que la máquina dice, pues los algoritmos tienen sesgos, cometen errores, fabulan, mienten, …” Y, añade, “que el sistema esté libre de sesgos dependerá de los datos con los cuales se alimenta y de que siempre haya humanos que lo verifiquen”.
M.Coeckelberg desde la Universidad de Viena, escribió recientemente “Cuando hablamos de IA, no solo hablamos de algoritmos o de datos; también hablamos del futuro de nuestra sociedad y del futuro de la humanidad.