[pms-logout text="Bienvenido, {{meta_user_name}}" link_text="Salir"]
Investigación aplicada en la Ingeniería
Gemelos digitales en ingeniería geotécnica
Modelos que se alimentan de datos y datos que se enriquecen con modelos
La capacidad predictiva de modelos numéricos de presas de residuos mineros (tailings dams) mejora si el modelo se retroalimenta con los datos obtenidos durante la construcción y la vida útil de la presa. Ese es precisamente el concepto de gemelo digital: un modelo numérico que, en paralelo a la realidad física, ayuda a tomar decisiones y utiliza los datos que provienen de medidas experimentales. Esto permite garantizar su credibilidad, minimizando la discrepancia entre modelo y realidad. Estas estrategias de asimilación de datos requieren que el modelo pueda ser evaluado muchas veces, en tiempo real y a un coste abordable. En este contexto, es determinante el uso de modelos de orden reducido (MOR) para reducir el coste y que sea posible resolver el modelo con diversas configuraciones de prueba (y escoger la que mejor se adapta a los datos). Es importante también controlar la credibilidad del modelo, es decir, garantizar su precisión (saber cuántas cifras significativas del resultado son correctas) y evaluar la incertidumbre del resultado, que resulta de propagar la incertidumbre asociada a los datos y al propio fenómeno que se está modelizando.
Palabras clave: Gemelo digital; presas de residuos mineros; modelo de orden reducido; simulación numérica; asimilación de datos; sensórica.
Predictive capacity of numerical models for tailings dams improves with a retrofit between the model itself and the data obtained during the construction and the exploitation of the dam. This is precisely the idea behind the digital twin concept: the numerical model runs in parallel to physical reality, and it is used to make engineering decisions. It uses experimental data to preserve the credibility of the model while minimizing the discrepancy between model and observed reality. These data assimilation strategies require multiple queries to the model, often in real-time, at an affordable computational cost. In this context, the use of reduced order models (ROM) is necessary to reduce the computational cost when testing numerous scenarios. The credibility of the model is also discussed, that is, the capacity of guaranteeing the numerical accuracy (number of correct significant digits) and the quantification of the uncertainty associated with the input data and the phenomenon to be modelled.
Keywords: Digital twin; tailings dams; reduced-order model; numerical simulation; data assimilation; sensorics.
Pedro Díez Mejía
Escola Tècnica Superior d’Enginyeria de Camins, Canals i Ports de Barcelona.
Laboratori de Càlcul Numèric (LaCàN),
Universitat Politècnica de Catalunya (UPC-BarcelonaTech).
International Center for Numerical Methods in Engineering (CIMNE).
Vivimos entre la realidad física, material y tangible, y un mundo digital que crea un universo virtual, un “metaverso” donde algunas personas y objetos tienen una existencia paralela. Mantenemos réplicas en redes sociales, avatares que representan algo de lo que somos y que acaban modificando también nuestra manera de ser. Las obras de ingeniería pueden llevar también su existencia paralela en el mundo virtual, tener un gemelo digital con el que interaccionar y que permite mejorar la toma de decisiones en las fases de diseño, construcción y explotación. En vez de enfrentar la dicotomía analógica/virtual, podemos hacer que los dos mundos paralelos se retroalimenten en beneficio mutuo.
La modelización y simulación numérica es una herramienta imprescindible para predecir el comportamiento de las obras civiles, para validar su diseño y para controlar y guiar su construcción, explotación y mantenimiento. En el ámbito de la ingeniería civil y ambiental, en la ingeniería de caminos, no suele ser posible construir prototipos. Casi siempre, la única manera realista de prever los efectos causados por las decisiones de diseño son los modelos numéricos. El caso particular de las presas de contención de residuos mineros (tailings dams, en inglés) es un buen ejemplo donde los modelos numéricos complejos son imprescindibles en todas las etapas de la obra, incluso en el análisis forense posterior a un eventual desastre causado por un colapso.
Las presas son estructuras emblemáticas y complejas. En lo que se refiere a las presas que se utilizan para retener los depósitos de residuos mineros, el carácter emblemático es menor, pero su complejidad es incluso mayor. Son en su mayoría presas de tierra o de materiales sueltos con núcleos impermeables, que se recrecen a lo largo de su vida útil (siguiendo diversas estrategias) y cuyo riesgo de rotura es diez veces mayor que el de las presas convencionales. De hecho, solo se habla de ellas cuando su colapso provoca desastres ambientales, elevadas pérdidas materiales e incluso víctimas mortales. Por su cercanía geográfica, conservamos el triste recuerdo del desastre de Aznalcóllar (1998), que afectó al parque de Doñana y que tardó más de tres años en ser mitigado, con un coste declarado de unos 240 millones de euros (Alonso y Gens, 2006a). Más cercano en el tiempo, el caso de la presa de Brumadinho causó, además de un gran impacto medioambiental y económico, la pérdida de 270 vidas.
Para evaluar o prever el comportamiento de este tipo de presas, como decíamos, no se puede contar con prototipos (ni siquiera con modelos experimentales a escala reducida, ya que los fenómenos relevantes son muy dependientes del tamaño). Así, la toma de decisiones, tanto en el diseño como en la explotación, se apoya en modelos predictivos que intentan incluir todos los fenómenos relevantes que afectan a la estructura. A menudo esto requiere combinar diferentes disciplinas en un modelo acoplado. En el caso que nos ocupa, se requiere utilizar modelos que tengan en cuenta los comportamientos mecánico, hidráulico y, en algunos casos, térmico. Esto quiere decir que hay que resolver tres ecuaciones que corresponden a tres disciplinas distintas de manera simultánea, sabiendo que la solución de cada disciplina tiene un papel en las demás. El estado tensional afecta a la porosidad y, por lo tanto, cambia los parámetros del problema hidráulico, y viceversa, la presión del agua intersticial (o altura piezométrica) afecta al equilibrio mecánico. Así se acoplan los problemas mecánico e hidráulico. Lo mismo sucede con el térmico, ya que muchas de las propiedades mecánicas e hidráulicas dependen de la temperatura. No siempre los fenómenos térmicos son relevantes, a menudo el acoplamiento es solo hidromecánico. Aun incluyendo el modelo térmico, se suele considerar que el acoplamiento es en un solo sentido, es decir, que la temperatura afecta a las propiedades de las otras disciplinas (mecánica e hidráulica), pero que las propiedades térmicas son independientes de la hidromecánica. Esta idea se ilustra en la Figura 1.
Interacciones en un modelo acoplado con tres disciplinas
La tecnología que se describe en este artículo es aplicable a diferentes sistemas de ingeniería, en particular de la ingeniería civil. Un caso similar al de las presas de residuos mineros es el de los depósitos subterráneos de residuos radiactivos, otro problema crítico en ingeniería geotécnica (Larion et al., 2020). En este caso, la influencia del problema térmico es mucho mayor y no se puede ignorar en el modelo.
Las ecuaciones en derivadas parciales (EDP) que proporcionan la solución del modelo son difíciles de resolver, ya que se trata, para cada disciplina, de problemas definidos sobre geometrías complejas, a veces cambiantes en el tiempo, con comportamientos no lineales y con interdependencias no triviales. Por supuesto, se emplean métodos numéricos para resolverlos: lo más frecuente en este contexto es utilizar elementos finitos para la discretización espacial y métodos sencillos de integración temporal para describir la evolución en el tiempo. Tanto la discretización espacial (tamaño de elemento) como la temporal (paso de tiempo) introducen un error numérico que se debe controlar y mantener por debajo de la precisión requerida, para conseguir el número de cifras significativas correctas deseado. Además, los parámetros materiales del modelo, las acciones a tener en cuenta e incluso las características geométricas están sujetas a incertidumbres notables, debido a, entre otras cosas, la variabilidad de los materiales que se emplean en la construcción. Esta incertidumbre se propaga en el modelo y afecta a la solución. La verificación y validación del modelo consiste precisamente en considerar la precisión numérica y el ajuste del modelo al comportamiento real de la estructura. A estos hay que añadir la incertidumbre y cuantificarlos y controlarlos para que la solución sea creíble. De hecho, el concepto de credibilidad está bien definido en este contexto (Giacomini et al., 2020). Se entiende como la cualidad de una solución numérica en la que tanto su precisión como la dispersión debida a la incertidumbre (caracterizada de manera probabilista) se han cuantificado y quedan dentro de las expectativas de la persona que haya de tomar las decisiones basándose en el modelo.
Un modelo numérico creíble permite prever el comportamiento de la estructura en diversos escenarios, ensayar diferentes hipótesis de carga o alternativas de diseño y así tomar decisiones basándose en los resultados obtenidos. Permite incluso reconstruir el pasado y explicar las circunstancias que condujeron a un accidente, en un ejercicio de ingeniería forense que, en este contexto, es a menudo necesario (Alonso y Gens, 2006b). Pero, en algunos casos, contar con un modelo creíble no es suficiente.
Gracias a la evolución de los sensores, es cada vez más fácil disponer de medidas precisas del estado de la estructura. Es relativamente sencillo instrumentar la presa para medir a lo largo del tiempo y de manera precisa diversas variables (presiones, deformaciones, desplazamientos…) en los puntos donde se coloquen los sensores, véase la figura 2. Esto, además de facilitar la monitorización de la presa en tiempo real, abre una perspectiva de interacción con los modelos que permite dar un salto cualitativo a las dos herramientas: los modelos y las redes de sensores.
Por una parte, los modelos pueden complementar las campañas de medida y generar nuevas medidas virtuales allí donde no hay sensores, mejorando la cantidad y la calidad de la información que proporcionan los sensores. Por otra parte, las medidas permiten ajustar los modelos, corrigiéndolos para que se ajusten mejor a la realidad observada, incorporando en el modelo la información que proviene de los datos obtenidos en las mediciones. Esta simbiosis está en el origen de lo que entendemos por gemelo digital (digital twin). Este concepto, hoy bastante popular, va más allá del simple modelo numérico (“numérico” y “digital” son aquí sinónimos) que replica el comportamiento de la estructura real en un mundo virtual. El gemelo digital tiene interés si se habla con su gemelo analógico, esto es, con la estructura real. De hecho, si en las estrategias de explotación y control se toman decisiones utilizando el modelo numérico, se puede decir que se convierten en interdependientes, intercambiando información (que los sensores envían al modelo) por actuaciones (que se deciden en base a los resultados que proporciona el modelo). Así, la información proveniente de los sensores cambia el modelo numérico para ajustarse a los datos. Además, los datos se complementan con los resultados del modelo, que permiten añadir mucha información (nuevas medidas de las mismas magnitudes en otros puntos, otras magnitudes que el modelo proporciona y que los sensores no miden). Este proceso de realidad aumentada es especialmente útil cuando se puede superponer la información del modelo a imágenes reales. Finalmente, las actuaciones que modifican la realidad, como los procesos de control activo, las intervenciones sobre la estructura o la gestión de los efluentes se deciden en base al modelo numérico, véase Figura 3.
Sensores para la monitorización de una presa y su colocación
El gemelo digital establece una simbiosis con la estructura, intercambiando información y actuaciones
El proceso por el que la información de los sensores se incorpora al modelo se denomina asimilación de datos (data assimilation). Es una generalización del problema inverso o de identificación de parámetros. El clásico problema inverso consiste en, a partir de unas medidas obtenidas mediante sensores o experimentos, determinar los parámetros de entrada del modelo que mejor explican ese resultado. La denominación de problema inverso está clara: el input del problema original (los parámetros del modelo) se convierte en el output, y viceversa. El concepto de asimilación de datos suele incluir además consideraciones de medida de la incertidumbre, tanto de los datos como de los parámetros que se infieren. En este contexto, se emplean a menudo técnicas bayesianas en las que los datos se pueden incorporar de manera paulatina y que permiten tener en cuenta la aleatoriedad de la información de la que se dispone. En cualquier caso, la asimilación de datos requiere evaluar un gran número de veces el problema directo. Se deben probar muchas configuraciones distintas, evaluar cómo el resultado se ajusta a las observaciones y modificar los parámetros de entrada que se desea identificar hasta que se minimiza la discrepancia entre los resultados del modelo y las observaciones (Nasika et al., 2022).
En los modelos acoplados, no lineales y evolutivos, como los que se utilizan para simular el comportamiento de las presas de residuos mineros, cada problema directo, cada simulación por elementos finitos, requiere utilizar importantes recursos computacionales. Aun contando con infraestructuras de cálculo de altas prestaciones, resolver el modelo completo requiere varias horas, incluso días. El coste computacional del problema directo hace que el problema inverso (que requiere resolver muchos problemas directos) sea a priori inabordable.
Pero todos estos cálculos que se han de realizar (todas estas resoluciones del problema directo) son similares entre sí. Se trata, como en el caso de los problemas de optimización, de control óptimo o de cuantificación de la incertidumbre, de muestrear el espacio paramétrico haciendo cálculos similares, con pequeñas variaciones de los valores de los parámetros.
En este contexto, es decir, cuando se trata de resolver muchas veces problemas similares correspondientes a variaciones relativamente pequeñas de los parámetros de entrada, entran en juego los modelos de orden reducido (MOR). Estas estrategias de cálculo se basan en conceptos que se encuentran en las disciplinas del aprendizaje automático (machine learning) y la inteligencia artificial. Más específicamente, en aquellas técnicas que, además, incorporan el conocimiento de la física del fenómeno que se está modelando (estas técnicas se engloban en denominaciones tales como physics-informed machine learning o scientific machine learning). En estas disciplinas se incluye, por ejemplo, la reducción de dimensionalidad, que consigue representar objetos computacionales que son vectores de dimensión muy alta (en el caso de soluciones de elementos finitos, el número de grados de libertad, que puede llegar a ser del orden de millones) con muchísimos menos grados de libertad. Esto es posible si estos vectores pertenecen a una misma familia de soluciones, si están en un subconjunto específico. Matemáticamente, decimos que estos vectores de dimensión alta pertenecen a una variedad de dimensión mucho más pequeña. Recordemos que el concepto de variedad (manifold en inglés) que aprendimos en nuestros cursos de Geometría Diferencial se refiere a una hipersuperficie de dimensión pequeña en espacios de dimensión grande. La dimensión pequeña es, en este caso, la dimensión intrínseca del problema paramétrico que coincide con el número de parámetros de entrada independientes (es decir, los parámetros a identificar).
La técnica de aprendizaje automático más popular para reducir la dimensionalidad de un problema es el análisis de componentes principales (principal component analysis, PCA). El PCA proporciona la dimensión de la variedad lineal (esto es, el subespacio euclídeo) más pequeña que contiene la familia de soluciones, reduciendo significativamente el número de grados de libertad que necesitamos para describir los elementos que pertenecen a esta familia de soluciones. Sin embargo, la variedad donde realmente “viven” las soluciones del problema es en general “curvada”, es decir no euclídea. Para obtener una reducción aun mayor de la dimensión, idealmente llegando a la dimensión intrínseca del problema, se pueden utilizar diversas técnicas de reducción no lineal de la dimensionalidad. Entre estas, podemos citar LLE (locally linear embedding), Isomap y kPCA (kernel PCA). Los MOR consisten precisamente en resolver el problema completo en la variedad de dimensión pequeña que contiene la familia de soluciones (Díez et al., 2021). Esto permite reducir drásticamente el número de grados de libertad y, por lo tanto, el coste computacional. El desarrollo de nuevos MOR para conseguir simulaciones creíbles a un coste abordable es un tema candente en la investigación aplicada a ingeniería (Giacomini et al., 2020). Como es habitual en ingeniería, no existe una estrategia que se pueda aplicar en todos los problemas. Así, conviene conocer las alternativas disponibles y aplicar aquella que mejor se adecúa al problema que se está tratando. Por ejemplo, en (Larion et al., 2020) y en (Nasika et al., 2022), para afrontar problemas de ingeniería geotécnica como los que se han descrito aquí, se utilizan métodos de los denominados “a posteriori”, que requieren muestrear el espacio paramétrico para constituir una familia de soluciones suficientemente representativa. Todos estos métodos han de ir acompañados de herramientas de estima del error numérico, para garantizar la precisión de las soluciones.
El gemelo digital es algo más que un modelo numérico que vive aislado en el mundo virtual. Ha de comunicarse con la estructura real, asimilando los datos que provienen de los sensores, garantizando así su credibilidad. Este gemelo, en simbiosis con su hermano analógico bien monitorizado, permite tomar decisiones informadas a lo largo de la vida de la estructura. Es una tecnología que supone un salto cualitativo en la aplicación de modelos numéricos, que ahora se imbrican con la realidad de la estructura. Para que la tecnología sea factible, el coste computacional debe ser abordable y, por lo tanto, conlleva utilizar estrategias de aprendizaje automático para desarrollar modelos de orden reducido eficientes, fiables y, en definitiva, creíbles.
Referencias
1
Alonso, E. E. y Gens, A. (2006a). Aznalcóllar dam failure. Part 1: Field observations and material properties. Géotechnique, 56(3), 165-183.
2
Alonso, E. E. y Gens, A. (2006b). Aznalcóllar dam failure. Part 2: Stability conditions and failure mechanism. Géotechnique, 56 (3), 185-201.
3
Díez, P., Muixí, A., Zlotnik, S. y García-González, A. (2021). Nonlinear dimensionality reduction for parametric problems: a kernel Proper Orthogonal Decomposition (kPOD), International Journal for Numerical Methods in Engineering, 122 (24) 7306-7327
https://doi.org/10.1002/nme.6831
4
Giacomini, M., Veroy, K. y Díez, P. (2020). Special Issue on Credible High-Fidelity and Low-Cost Simulations in Computational Engineering, International Journal for Numerical Methods in Engineering, 121 (23), 5151-5152.
https://doi.org/10.1002/nme.6551
5
Larion, Y., Zlotnik, S., Massart, Th. J. y Díez, P. (2020). Building a certified reduced basis for coupled thermo-hydro-mechanical systems with goal-oriented error estimation. Computational Mechanics, 66 (3), 559-573.
6
Nasika, Ch., Díez, P., Gérard, P., Massart, Th. J. y Zlotnik, S. (2022). Model Order Reduction in hydro-mechanically coupled problems for the assessment of earthfill dams”, Finite Elements Analysis and Design, 199, 103666.
https://doi.org/10.1016/j.finel.2021.103666