[pms-logout text="Bienvenido, {{meta_user_name}}" link_text="Salir"]
[pms-logout text="Bienvenido, {{meta_user_name}}" link_text="Salir"]

La Inteligencia Artificial aplicada a la Ingeniería civil

Inteligencia artificial e ingeniería civil: ¿del razonamiento a la estadística?

Incertidumbres sobre la tecnología de moda

César Pérez-Chirinos Sanz

Ingeniero de caminos, canales y puertos. Experto TIC del Banco de España. Presidente del CTN 71 SC 307 de UNE sobre blockchain y tecnologías de registro distribuido.

La revista TIME ha nombrado CEO del año 2023 a Sam Altman, director ejecutivo de OpenAI, la empresa que desde sus inicios en diciembre de 2015 acapara titulares con sus anuncios de productos de inteligencia artificial (IA, en adelante). Entre estos productos destacan el generador de ilustraciones DALL-E (mayo de 2022) y el autómata dialogante (chatbot) ChatGPT, introducido en septiembre de 2020.

En esta elección habrá pesado, sin duda, el hecho de que la versión 3 de ChatGPT, presentada el 30 de noviembre de 2022, contaba en enero de 2023 con más de 100 millones de usuarios, convirtiéndose en el software para usuario final de adopción más rápida en la historia.

A lo largo de 2023 prácticamente todos los medios de comunicación social han dado cuenta de su existencia en todos los tonos imaginables: desde el más despectivo al más elogioso; desde considerarlo poco más que un juguete hasta verlo como un anticipo de riesgos existenciales para la especie humana. Que usted esté leyendo este monográfico de la ROP sobre IA tiene mucho que ver con el impacto que ha causado el acceso público a ChatGPT (1), que ha convertido la IA en la tecnología de moda del año 2023.

La inteligencia artificial como tecnología disruptiva

A pesar de haberse convertido en la tecnología de moda, la IA dista mucho de ser una novedad. Sus orígenes formales pueden establecerse en 1950, año en que el famoso matemático Alan M. Turing publicó un artículo sobre la posibilidad de que un autómata dialogante pudiera hacer creer a una persona que estaba conversando con otra persona y no con una máquina. Como en una premonición del debate que ha suscitado ChatGPT en 2023 sobre si sus respuestas son o no de fiar, Turing propuso que una máquina capaz de hacerse pasar por una persona podía equivaler a una máquina pensante ante la imposibilidad de definir satisfactoriamente qué es pensar. (2)

Mas allá de esta referencia histórica que ilustra la denominación de esta tecnología, cualquier intento de hacer justicia a su larga trayectoria excedería la longitud de esta revista (3), por lo que me limitaré a llamar su atención sobre lo que se denominan «inviernos de la IA» en contraposición con los llamados «veranos de la IA». Con ello se hace alusión a la contraposición entre los periodos «invernales» —en los que el escepticismo sobre las posibilidades de la IA provoca una sequía de inversiones en su investigación y desarrollo— y los periodos de entusiasmo, en los que todo agente comercial necesita que su producto esté basado en IA para poder venderlo. (4)

Esta bipolaridad inversora parece consustancial a la evolución de las tecnologías digitales calificadas como «disruptivas» por su supuesta capacidad de alterar repentinamente la dinámica de uno o más mercados relevantes. (5) De hecho, el conocido Hype Cycle (ciclo del entusiasmo) de Gartner puede considerarse como uno de los sucesivos ciclos de «inviernos» y «veranos» inversores en cualquier tecnología que pueda crear mercados de gran volumen o alterar significativamente el comportamiento de uno establecido.

Ejemplos de esta capacidad disruptiva los hemos visto en las compañías que apostaron por ofrecer servicios de almacenamiento y proceso de datos «en la nube», como Amazon; y se han repetido con otras tecnologías digitales, como la explotación de los macrodatos (big data) en apoyo a la gestión de las grandes organizaciones. Sin duda, la tecnología tras las herramientas ofrecidas por OpenAI y otras muchas competidoras debe considerarse una tecnología disruptiva que se encuentra en pleno «verano » inversor. (6)

La advertencia implícita en el apartado anterior sobre las incertidumbres sobre el «estado de ánimo» de las tecnologías disruptivas, en general, y sobre la IA muy en concreto me parece muy relevante en el contexto de la ingeniería civil.

No se trata solo del sabio consejo del insigne Eduardo Torroja en su Razón y ser de los tipos estructurales sobre huir de las tecnologías de moda si no hay una razón de peso para utilizarlas; es que para «quedarse del lado de la seguridad», como es una obligación legal en nuestros trabajos, resulta esencial conocer la fiabilidad de nuestras herramientas.

La tecnología tras las herramientas ofrecidas por OpenAI y otras muchas competidoras debe considerarse disruptiva

Para ello resulta muy conveniente alejarse del actual ruido comercial relacionado con la IA y revisar cómo se aplicaba ya en España en la ingeniería civil hace más de cuatro décadas. Bajo el impulso de nuestro colega José Cuena, el entonces Ministerio de Obras Públicas y Urbanismo lanzó en 1982 el plan de Sistemas Automáticos para Información Hidrológica (SAIH). (7)

Se trataba de complejos sistemas de captación, transmisión y tratamiento de información «en tiempo real» destinados a facilitar la toma de decisiones sobre la gestión del agua embalsada en ciertas cuencas hidrográficas que hacían uso de técnicas ya conocidas de la IA, como los sistemas expertos y la «ingeniería del conocimiento», para identificar y descartar información errónea, por ejemplo procedente de sensores deteriorados, al tiempo que recomendar actuaciones a los operadores de las compuertas de las presas.

Es importante señalar que los SAIH no se diseñaron para actuar directamente sobre los elementos de control de las cuencas, aunque técnicamente habría sido posible. Las recomendaciones a los operadores se basaban en conjuntos de reglas tipo «SI–ENTONCES» que representaban el conocimiento aportado por los expertos de cada cuenca, por lo que el sistema podía «explicar» la secuencia de reglas que activaban una recomendación, incluso aunque dichas reglas contuvieran información probabilística.

Estos sistemas de IA, diseñados para ayudar a las personas en su toma de decisiones sobre el control de sistemas de gran complejidad, requerían que una persona tuviera la libertad de seguir o no la recomendación del sistema, así como la responsabilidad total sobre la decisión adoptada (un requisito que los anglosajones denominan human in the loop).

Asumiendo que el último decisor no tuviera la experiencia de quienes entrenaron al sistema, la explicabilidad de la actuación recomendaba cumplía un doble propósito: la posibilidad de identificar errores en las reglas del sistema y la transmisión de conocimiento de expertos de difícil reemplazo a personas con menor experiencia.

Frente a este enfoque cauteloso, en la actualidad proliferan sistemas de IA en los que no hay intervención humana entre la conclusión del sistema sobre una determinada situación y la actuación ordenada por el sistema para conseguir los objetivos que tiene asignados.

Esta ausencia de decisores humanos en el bucle de control de un sistema se argumenta en ocasiones por la necesidad de tomar decisiones en pocos milisegundos, como puede ser el caso de la conducción autónoma de vehículos terrestres o drones, pero suscita enconados debates sobre a quién le corresponde la responsabilidad en caso de que estas decisiones autónomas causen daños potencialmente irreparables, como es el caso de las denominadas «armas inteligentes».

Oportunidades y retos de la IA en la ingeniería civil según ChatGPT

Lo que sigue es un extracto literal de la opinión que la versión 4.8 de ChatGPT tiene sobre estas oportunidades y retos:

«La inteligencia artificial (IA) se ha consolidado como una herramienta revolucionaria en múltiples sectores. Desde el ámbito médico hasta el financiero, la IA ha transformado las operaciones y expectativas tradicionales. En el mundo de la ingeniería civil, esta transformación no es menos relevante. Sin embargo, con la promesa de la innovación surge el desafío de regularla de manera adecuada y ética.

La IA ya no es un mero concepto futurista en la ingeniería civil. Su capacidad para optimizar diseños, automatizar procesos, mejorar la sostenibilidad y redefinir el urbanismo se encuentra en plena manifestación. Desde sistemas que predicen fallos estructurales hasta algoritmos que optimizan el flujo de tráfico en tiempo real, el potencial de la IA es vasto.

Aunque los beneficios de la IA son evidentes en términos de eficiencia, reducción de costos y mejora en la seguridad, también surgen desafíos. La barrera técnica, la necesidad de formación continua y la resistencia natural al cambio son solo algunas de las dificultades. Pero quizás el desafío más prominente es el legislativo. ¿Cómo se regula una tecnología en constante evolución sin frenar su innovación?

La regulación de la IA en el ámbito de la ingeniería civil es crucial. Las decisiones tomadas a nivel legislativo influirán significativamente en la adopción y adaptación de esta tecnología. La Unión Europea, por ejemplo, está en proceso de definir un reglamento que podría sentar un precedente mundial en cuanto a la regulación de la IA. Aunque todavía está en desarrollo, es esencial que los ingenieros civiles estén al tanto y participen activamente en estas discusiones. […]». (9)

No es de extrañar que periodistas y autores de ficción se preocupen por su futuro ante un competidor capaz de redactar así. En realidad, la calidad de sus respuestas está muy relacionada con la calidad de las preguntas que se le hacen, hasta el punto de que durante 2023 surgió una pseudoprofesión muy bien remunerada, la de «ingeniero preguntón» (prompt engineer); sin embargo, pronto se ha visto que resulta más económico y proporciona mejor resultado utilizar las respuestas de un autómata conversacional para preguntar a otro, lo que probablemente deja en muy mal lugar la capacidad de la mayoría de los humanos para expresarnos correctamente por escrito.

La tecnología tras ChatGPT

Resulta muy relevante para su posible aplicación a la ingeniería civil entender la abismal diferencia de planteamiento entre sistemas de IA como los que integraban el SAIH original y los denominados Grandes Modelos de Lenguaje (en inglés, Large Languaje Models, LLM), como ChatGPT y otros modelos similares.

Frente a un sistema de IA basado en reglas explicables y con intervención humana, los LLM son «cajas negras» cuyo comportamiento no es explicable de forma directa en términos humanamente comprensibles. Este comportamiento es, en gran medida, una propiedad emergente que resulta de entrenar redes neuronales artificiales de gran tamaño con enormes conjuntos de documentos codificados de forma comprimida.

El resultado de este entrenamiento se denomina espacio de incrustaciones (embedding space) en el que palabras (10), frases y hasta oraciones enteras quedan representadas como vectores numéricos en un espacio con varios miles de dimensiones, cada una de las cuales puede representar un aspecto del significado, el uso o las características lingüísticas de las palabras.

En este espacio, la longitud y dirección de un vector puede tener significados semánticos. Por ejemplo, palabras con significados similares pueden tener direcciones similares. A diferencia de la mayoría de los espacios vectoriales que se utilizan en ingeniería civil, estos espacios no son lineales y la información que contienen representa, en esencia, la probabilidad de encontrar una palabra en una incrustación identificada en el conjunto de documentos usado en el aprendizaje. Por ello, una palabra en estos espacios puede aparecer múltiples veces en función de las palabras que la rodeaban en cada contexto en que estaba incrustada durante el aprendizaje, lo que permite que el modelo capture significados múltiples y las sutilezas del lenguaje humano que representa.

La forma en que un LLM elabora la respuesta es bastante complicada y puede describirse de forma simplificada en estos pasos:

  1. La pregunta se descompone mediante los mismos algoritmos utilizados para construir el espacio de incrustaciones, como si fuera un nuevo documento del conjunto de aprendizaje.
  2. El conjunto de vectores obtenido en el paso anterior se usa como entrada de la red neuronal artificial multicapa que almacena el espacio de incrustaciones. La respuesta de cada conjunto de capas (transformer) del LLM equivale a la realización de cálculos complejos como la ponderación de la importancia de diferentes partes de la pregunta (attention), así como la modificación y combinación de los vectores que representan la pregunta.
  3. A medida que los datos pasan por sus capas, el LLM construye un contexto que representa su «comprensión» de la pregunta, así como cualquier información relevante incluida en la pregunta.
  4. Partiendo del contexto obtenido, el LLM utiliza la información estadística que contiene para obtener la primera palabra que aparecería en una respuesta que describa el contexto. Agrega la palabra al contexto y obtiene la nueva palabra de la respuesta, repitiendo este proceso hasta generar una respuesta completa, ya sea por haber encontrado una marca de finalización en la incrustación que representa la respuesta, o por llegar a un límite de longitud preestablecido.

De la descripción anterior parece completamente atinado considerar los LLM como «loros estocásticos» (11), que repiten variaciones de la información que han «escuchado» sin que pueda sostenerse que han «entendido » la respuesta. ¿Confiaría usted a un loro los cálculos de su próximo proyecto o la decisión de abrir las compuertas de un embalse?

Notas

1

Microsoft tenía acceso a versiones anteriores de ChatGPT vía una interfaz de programación (API) desde septiembre de 2022.

2

El filósofo José Antonio Marina sostiene en su libro El misterio de la voluntad perdida que la ventaja evolutiva del lenguaje es que permite engañar a los congéneres menos inteligentes. Esta afirmación, unida a la propuesta de Turing, merecería ser analizada seriamente por quienes ven en los chatbots una amenaza existencial para nuestra especie.

3

Aquí puede encontrar una introducción a esa historia: https://ellisalicante.org/book/historia-de-la-inteligenciaartificial

6

Otras, como blockchain, sobre la que escribimos aquí en 2019, se encuentran en pleno invierno: https://quickclick.es/rop/pdf/publico/2019/2019_diciembre_3615.pdf (págs. 42-47)

7

Descrito en El papel de los sistemas basados en el conocimiento en los sistemas de información hidrológica: http://info.iaia.lcc.uma.es/lcc/publicaciones/LCC457.pdf

9

Mi conversación completa con GhatGPT 4 en relación con este artículo está accesible aquí: https://chat.openai.com/share/1859641f-a4a9-4017-a2ef-f2fc0979bd5d. Resulta curioso leer la positiva respuesta que da sobre la calidad de la ROP en respuesta a mi primera pregunta.

10

En realidad, más que palabras completas, el elemento básico de una incrustación es el token, la secuencia de caracteres que representa la raíz común de varias palabras relacionadas, o signos de puntuación relevantes para el patrón semántico correspondiente a la incrustación identificada en el conjunto documental de aprendizaje.

Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.