Maschinelles Lernen hilft dabei, die Zeitauflösung von X zu erhöhen
Wissenschaftliche Berichte Band 13, Artikelnummer: 10529 (2023) Diesen Artikel zitieren
560 Zugriffe
1 Altmetrisch
Details zu den Metriken
Viele unterirdische Ingenieurtechnologien oder natürliche Prozesse führen dazu, dass sich die Eigenschaften poröser Medien wie Porosität oder Durchlässigkeit mit der Zeit verändern. Das Studium und Verständnis solcher Prozesse auf der Porenskala wird durch die Visualisierung der Details geometrischer und morphologischer Veränderungen in den Poren erheblich erleichtert. Für realistische poröse 3D-Medien ist die Röntgen-Computertomographie (XRCT) die Methode der Wahl zur Visualisierung. Die erforderliche hohe räumliche Auflösung erfordert jedoch entweder den Zugang zu begrenzten Hochenergie-Synchrotronanlagen oder Datenerfassungszeiten, die erheblich länger (z. B. Stunden) sind als die Zeitskalen der Prozesse, die die Änderung der Porengeometrie verursachen (z. B. Minuten). Daher sind herkömmliche XRCT-Tischtechnologien bisher oft zu langsam, um dynamische Prozesse zu untersuchen. Auch die Unterbrechung von Experimenten zur Durchführung von XRCT-Scans ist in vielen Fällen kein gangbarer Weg. Wir schlagen einen neuartigen Arbeitsablauf zur Untersuchung dynamischer Fällungsprozesse in porösen Mediensystemen in 3D unter Verwendung einer konventionellen XRCT-Technologie vor. Unser Arbeitsablauf basiert auf der Begrenzung der Datenerfassungszeit durch Reduzierung der Anzahl der Projektionen und Verbesserung der rekonstruierten Bilder mit geringerer Qualität mithilfe von maschinellen Lernalgorithmen, die auf Bildern trainiert werden, die aus qualitativ hochwertigen Scans im Anfangs- und Endstadium rekonstruiert wurden. Wir wenden den vorgeschlagenen Arbeitsablauf auf die induzierte Carbonatfällung in einer Probe aus gesinterten Glasperlen mit porösem Medium an. So konnten wir die zeitliche Auflösung ausreichend erhöhen, um die zeitliche Entwicklung der Niederschlagsansammlung mithilfe eines verfügbaren XRCT-Tischgeräts zu untersuchen.
Untergrundreservoirs werden zunehmend zur Flüssigkeitsspeicherung genutzt, und viele der eingesetzten Technologien sind mit der Produktion oder Speicherung von Energie verbunden, was in der Gesellschaft oft kontrovers diskutiert wird1. Viele neuere unterirdische Aktivitäten zielen darauf ab, Energie in Form von Druckluft, CH\(_4\) oder H\(_2\) zu speichern, um die instabile Produktion erneuerbarer Quellen wie Wind und Sonne2 zu bewältigen, oder den Klimawandel durch die Sequestrierung direkt zu bekämpfen von CO\(_2\)3.
Im Untergrund gespeicherte Flüssigkeiten können in manchen Fällen aus dem Zielreservoir austreten. Dies verringert die Speichereffizienz und kann potenziell eine Gefahr für die Umwelt oder andere unterirdische Nutzungen darstellen1. Die induzierte Karbonatfällung (ICP), beispielsweise enzymatisch oder mikrobiell (E/MICP), ist eine neue Technologie zur Minderung solcher Leckagen, die sich auch in Feldversuchen als wirksam erwiesen hat4,5,6,7,8.
ICP hat viele zusätzliche Anwendungen wie Bodenverstärkung, Sanierung, Erosionsschutz und mehr9,10,11,12. In den letzten Jahren wurden auch zunehmend Feld- oder Großanwendungen von ICP mit dem Ziel der Veränderung der Bodeneigenschaften durchgeführt13,14,15,16,17,18. Obwohl die Änderungen der Permeabilität bei Anwendungen zur Bodenverstärkung von untergeordnetem Interesse sind, kann es zu ausreichenden Niederschlägen kommen, um die Fließwege und damit den Transport von Reaktanten in größerem Maßstab zu beeinflussen, sodass genaue Porositäts-Permeabilitätsbeziehungen auch für Anwendungen ohne Leckageminderung wichtig sind von ICP. Die enzymatisch induzierte Carbonatfällung (EICP) ist eine der möglichen Methoden zur Erzielung von ICP, es gibt jedoch viele andere Methoden zur Induktion der Carbonatfällung19. Während der EICP katalysiert das Enzym Urease die Hydrolysereaktion von Harnstoff (\(\mathrm{(NH_2)_2CO}\)) in Ammoniak (\(\mathrm{NH_{3}}\)) und Kohlendioxid (\(\mathrm {CO_2}\)). Diese Reaktion erhöht den pH-Wert, da wässrige Ammoniaklösungen alkalisch werden. Eine zunehmend alkalische Lösung führt zu erhöhten Konzentrationen von Carbonat (\(\mathrm{CO_{3}^{2-}}\)), da es bei hohen pH-Werten die dominierende Spezies des anorganischen Kohlenstoffs ist. In Gegenwart von Calcium (\(\mathrm{Ca^{2+}}\)) führen hohe Carbonatkonzentrationen zur Ausfällung von Calciumcarbonat (\(\mathrm{CaCO_{3}}\)). Die Gesamtreaktion des EICP ist:
Weitere Einzelheiten und Hintergrundinformationen zu unseren EICP-Studien und dem experimentellen Arbeitsablauf finden Sie beispielsweise in den Referenzen 20,21,22.
Um ICP-Anwendungen zu entwerfen und zu bewerten oder die Anwendbarkeit von ICP allgemeiner zu untersuchen, wurden numerische Modelle entwickelt und auf reale und allgemeine Leckageminderungsszenarien angewendet23,24,25. Für numerische Modelle, die sich mit der Leckageminderung auf einem Feld (z. B. Darcy-Skala) befassen, ist die Vorhersage effektiver Eigenschaften poröser Medien wie Porosität und insbesondere Permeabilität von entscheidender Bedeutung, da eine erfolgreiche Leckageminderung einer ausreichend verringerten Permeabilität gleichkommt, so dass Leckagen verhindert werden. Viele numerische Modelle für ICP berücksichtigen jedoch nur vereinfachte Porositäts-Permeabilitätsbeziehungen8,26,27,28,29. Ein weit verbreiteter Ansatz bei experimentellen und numerischen Untersuchungen des reaktiven Transports ist die einfache Potenzgesetzbeziehung30:
mit der intrinsischen Permeabilität k und der Porosität \(\phi \), verknüpft durch den Exponenten \(\eta \). Der Index „0“ gibt jeweils die Anfangswerte an. Laut Hommel et al.30 kann ein Potenzgesetz als standardmäßige erste Wahl bei der Modellierung des Transports durch ein sich entwickelndes poröses Medium angesehen werden, da es nur einen Parameter, \(\eta \), hat, der an Beobachtungen angepasst werden kann und Dadurch werden die resultierenden Porositäts-Permeabilitätsbeziehungen durch den Vergleich der ermittelten Exponenten leicht mit anderen Studien vergleichbar. Der Kozeny-Carman-Ansatz wurde in dieser Arbeit aufgrund der möglichen Zunahme der Komplexität nicht berücksichtigt (interessierte Leser können sich auf die ergänzenden Informationen beziehen).
Ein wichtiger Schritt zur Verbesserung der Vorhersagekapazität und Zuverlässigkeit numerischer Modelle auf der Feldskala ist die Entwicklung prozess- und poröser Medium-spezifischer Porositäts-Permeabilitätsbeziehungen. Um solche Beziehungen in Laborexperimenten zu untersuchen, besteht eine große Herausforderung darin, sowohl den Druck als auch die Porenmorphologieänderung mit hoher zeitlicher Auflösung zu messen, während ICP in einer Probe auftritt. (Die Schätzung der charakteristischen Zeit des ICP unter unseren Bedingungen beträgt ungefähr 5000 s, interessierte Leser können sich auf die ergänzenden Informationen beziehen.)
In optisch transparenten 2D-Systemen ist die Verfolgung der Geometrieänderung mit hoher zeitlicher Auflösung mit konventioneller Lichtmikroskopie recht einfach, wie in früheren (mikrofluidischen) Studien31,32,33,34 beschrieben. Darüber hinaus gibt es viele weitere Möglichkeiten, Änderungen der Geometrie im Laufe der Zeit aufzulösen und die Strömungsdynamik zu untersuchen. Durch den Einsatz transparenter 2D-Systeme kann man das Geschwindigkeitsprofil einer Flüssigkeit während der Dynamik mittels Particle Image Velocimetry (PIV) ermitteln. Moderne konfokale Mikroskope liefern während des Flüssigkeitsflusses nur begrenzte 3D-Informationen. Sowohl die konfokale Mikroskopie als auch die Partikelbild-Velocimetrie (PIV) unterstützen das Verständnis des Transports in porösen Medien und werden zur Untersuchung der Dynamik in 2D-Systemen eingesetzt35,36.
Während 2D-Studien einen erheblichen Wert für die Verbesserung des Prozessverständnisses haben, hinterlässt die vernachlässigte dritte Dimension immer noch Unsicherheiten hinsichtlich der Ergebnisse solcher 2D-Studien, unabhängig davon, ob sie auf realistische 3D-Untergrundumgebungen angewendet werden können oder nicht. Eine der ausgeprägtesten Methoden zur Visualisierung von 3D-Strukturen ist die Magnetresonanztomographie (MRT). Die MRT wird im medizinischen Bereich aufgrund ihres nicht-invasiven Charakters häufig eingesetzt, und obwohl sie üblicherweise für ihre geringe räumliche Auflösung bekannt ist, können moderne Geräte Strukturen mit einer Größe von nur 10-20 \(\mu \)[m]37 auflösen. Um eine genaue Bildgebung zu erreichen, ist jedoch ein Kompromiss zwischen räumlicher und zeitlicher Auflösung erforderlich, und es ist eine umfassendere Datenerfassung erforderlich. In bestimmten Fällen kann eine gemeldete zeitliche Auflösung bis zu etwa 100 [ms] bei einer räumlichen Auflösung von 1 [mm] betragen (interessierte Leser können sich auf die Arbeit von Nayak et al.38 beziehen). Solche Systeme wurden zur Visualisierung der Dynamik in porösen 3D-Medien eingesetzt39,40,41, weisen jedoch aufgrund ihrer Kompromissnatur bestimmte Einschränkungen auf.
Um Unsicherheiten bei der Bestimmung der Porositäts-Permeabilitätsbeziehungen in Bezug auf die Dimensionalität zu verringern, müssen realistische Porengeometrien und feste Mineralzusammensetzung sowie feste Oberflächen intransparenter 3D-Proben wie Gesteinskerne untersucht und daher eine Bildgebung durchgeführt werden Röntgen-Computertomographie (XRCT). Die Scanzeit herkömmlicher XRCT-Geräte ist durch eine lange Aufnahmezeit (einige Minuten bis Stunden) gekennzeichnet. Einige moderne laborbasierte XRCT-Geräte ermöglichen aufgrund der schnellen Entwicklung von Hardwarekomponenten eine schnelle Bildgebung (einige Sekunden bis Minuten)42,43. Während diese Komponenten einen limitierenden Faktor für schnelles Scannen darstellen, haben wir uns auf einen kostengünstigen Arbeitsablauf konzentriert, der die herkömmliche XRCT-Erfassungszeit erheblich verkürzt, um eine höhere zeitliche Auflösung der Geometriedaten während des Niederschlags zu ermöglichen.
In jüngster Zeit hat sich die XRCT als nicht-invasive Methode zur Erforschung physikalischer Phänomene in verschiedenen Bereichen etabliert44,45,46,47,48. Die Methode liefert vollständige 3D-Geometrieinformationen des Ziels, die einen intuitiven Überblick ermöglichen. Ein typisches laborbasiertes XRCT ist der Standard-Kegelstrahlaufbau, bei dem es einen Kompromiss zwischen räumlicher Auflösung und Datenerfassungszeit gibt49. Dieser Kompromiss wird hauptsächlich durch das Verhältnis zwischen der Energiekapazität der Quelle und der Fokusgröße ausgelöst. Beispielsweise ist eine Reduzierung der Brennfleckgröße erforderlich, um eine höhere räumliche Auflösung zu erreichen. Die Verwendung einer verringerten Brennfleckgröße führt jedoch zu einer Begrenzung der Energiemenge, die von der Röntgenquelle emittiert werden kann, was wiederum die Scanzeit verlängert50. Infolgedessen ist eine längere Belichtungszeit und damit eine längere Datenerfassungszeit erforderlich, um ausreichend Röntgenstrahlung zu dosieren und genaue Bilder zu erhalten51. Darüber hinaus ist es wichtig, viele Projektionen aus verschiedenen Winkeln des Ziels zu erfassen, um mit XRCT52 die 3D-Geometrie des Ziels präzise zu rekonstruieren. Aufgrund der Kombination aus Belichtungszeit und der erforderlichen Anzahl von Projektionen leidet XRCT oft unter einer langen Datenerfassungszeit, was die zeitliche Auflösung zur Erforschung vollständiger dynamischer 3D-Phänomene entsprechend einschränkt.
Die Beobachtung relativ schneller Prozessverhaltensweisen, die unterhalb der Zeitauflösung herkömmlicher laborbasierter XRCT liegen, wie z. B. der Transport gelöster Stoffe, die Auflösung von Mineralien, die Dynamik von Gasblasen oder Strömungsprozesse nicht mischbarer Flüssigkeiten, ist bisher mit fortgeschrittenen \(\mu \)XRCT-Aufbauten möglich53 ,54,55 und Synchrotronanlagen56,57,58,59,60,61.
In einem fortgeschrittenen \(\mu \)XRCT-Aufbau wie in der Arbeit von Bultreys et al.53 und Offenwert et al.54 zeigten die Autoren den Transport gelöster Stoffe in porösen Medien mit sehr hoher zeitlicher Auflösung. Mithilfe einer begrenzten Anzahl von Projektionen und Binning, bei dem benachbarte Pixel kombiniert werden, konnten die Autoren eine Scanzeit von bis zu 12 [s] erreichen. Binning ist vorteilhaft, um das Signal-Rausch-Verhältnis zu erhöhen und somit die Belichtungszeit zu verkürzen. Darüber hinaus haben die Autoren die „Smooth-Shooting“-Strategie übernommen, bei der sie bei kontinuierlicher Drehung Projektionen aus verschiedenen Winkeln erhielten, was dazu beitrug, die Geschwindigkeit des gesamten Scanvorgangs weiter zu steigern. In der Arbeit von Dewanckele et al.55 konnten die Autoren durch einen verbesserten Aufbau sogar eine schnellere Scanzeit (9,6 [s]) erreichen.
Mit einem um mehrere Größenordnungen höheren Röntgenfluss ist es möglich, in einer Synchrotronanlage 3D-Datensätze in Sekundenbruchteilen mit einer sehr hohen räumlichen Auflösung (unter Mikrometerauflösung) zu erfassen62,63. Darüber hinaus ist aufgrund der monochromatischen Natur des Synchrotonstrahls eine weitere Auswertung des resultierenden Bildes im Vergleich zur herkömmlichen laborbasierten XRCT-Bildgebung, die einen polychromatischen Strahl verwendet, einfacher. Dies führt zum Artefakt der Strahlaufhärtung64. Mithilfe solch fortschrittlicher Beobachtungsmethoden haben die oben genannten Studien einen enormen Nutzen für das Verständnis der Physik bei schnellen Prozessen gebracht, was zu einem intensiven wissenschaftlichen Interesse geführt hat. Trotz dieser Vorteile ist die Möglichkeit, Synchrotronanlagen zu nutzen, jedoch sehr selten und erfolgt auf Vorschlagsbasis. Der Hauptgrund ist die im Vergleich zum wissenschaftlichen Bedarf geringe Anzahl an Synchrotonanlagen. Darüber hinaus sind die Kosten für die Durchführung von Experimenten in solchen Einrichtungen sehr hoch56.
Anstatt sich auf Hardware-Verbesserungen oder fortschrittliche Synchroton-Einrichtungen zu verlassen, wurden auch aktive Studien zu softwarebasierten Bildgebungstechniken durchgeführt, um die Geschwindigkeit der Datenerfassung zu verbessern65,66,67,68. Im Allgemeinen basieren diese Studien auf einer Niedrigdosisstrategie, die sich positiv auf die Optimierung der Datenerfassungszeit auswirkt, indem ein vollständiges/ideales Datenerfassungsszenario vermieden wird. Ziel dieser Studien ist es außerdem, die Bildqualität zu verbessern, die als Kompromiss durch die Anwendung einer Niedrigdosisstrategie beeinträchtigt wird.
Die Niedrigdosisstrategie lässt sich in zwei Kategorien einteilen: (\(1^{\text {st}}\)) Reduzierung der Röntgendosis67,69 und (\(2^{\text {nd}}\) ) Begrenzung der Anzahl der Projektionen (sparse-view)70,71,72. Im ersten Ansatz kann die Dosismenge reduziert werden, indem die Spannung oder der Fluss der Strahlquelle verringert und die Belichtungszeit begrenzt wird. Dies spielt insbesondere im Bereich der medizinischen Bildgebung73 eine ganz entscheidende Rolle, um eine Strahlenbelastung für Patienten zu minimieren. Außerdem hat dieser Ansatz bei der Untersuchung biologischer Zellen69 oder Polymere74 große Auswirkungen, da der Hochenergiestrahl vermieden werden sollte, um die Zielprobe nicht zu beschädigen. Beim zweiten Ansatz kann man nur eine begrenzte Anzahl von Projektionen (sparse-views) nutzen, um einen ausreichend guten 3D-Bildstapel zu rekonstruieren. Durch die Aufnahme von nur wenigen Schnappschüssen aus mehreren verschiedenen Winkeln ist es möglich, die Scanzeit zu optimieren und die Gesamtmenge der Röntgendosis während des Scanvorgangs zu reduzieren. Ziel dieses Ansatzes ist es, qualitativ gleichwertige 3D-Bildgebungsergebnisse im Vergleich zu vollständig abgetasteten Daten zu erzielen, jedoch aus unterabgetasteten Daten. Dieser Sparse-View-Ansatz ist nicht nur im Bereich der medizinischen Bildgebung70, sondern auch in industriellen Anwendungen75 sehr vielversprechend. Dies liegt daran, dass die Zugangswinkel der Röntgenbeobachtung bei industriellen Anwendungen wie der Untersuchung von Flugzeugflügeln aufgrund der Größe des Ziels eingeschränkt sein können76. Darüber hinaus könnte dieser Ansatz auch bei anderen Bildgebungsverfahren wie der photoakustischen Bildgebung77, bei denen der Zugang zur Haut des Patienten aus vielen verschiedenen Winkeln eingeschränkt ist, von Vorteil sein. Trotz der wünschenswerten Vorteile in den oben genannten Aspekten und insbesondere in der verkürzten Scanzeit besteht das Hauptproblem solcher Niedrigdosis-Ansätze darin, dass die resultierenden Bilder oft unter einer stark verminderten Qualität leiden. Dies liegt an der inhärenten Eigenschaft der XRCT, die durch das Ziel hindurchtretenden Röntgenstrahlen zu sammeln. Im Allgemeinen führt eine Bildgebung mit einer langen Belichtungszeit in Kombination mit einer ausreichenden Energiemenge wahrscheinlich zu einem besseren und stabileren „noise-clean“-Ergebnis, da statistisch gesehen mehr Röntgenstrahlen am Detektor gesammelt werden78. Bei einem Sparse-View-Ansatz ist der Mangel an Informationen aufgrund der spärlichen Winkelabtastung daher das herausfordernde Problem für die Rekonstruktion von 3D-Datensätzen guter Qualität.
Um solche Probleme anzugehen, wurden zahlreiche Studien zur Verbesserung von Rekonstruktionsmethoden durchgeführt, die in der Lage sind, mit niedrig dosierten tomografischen Daten umzugehen67,71,72,79. Die Autoren schlugen iterative Methoden zur Rekonstruktion von Bildern vor, anstatt die FBP-Methode (Filtered Back Projection) zu verwenden, die ein herkömmlich verwendeter analytischer Rekonstruktionsansatz ist72. Im FBP-Ansatz wird die Rekonstruktion von Bildern als Inversionsproblem behandelt, was bedeutet, dass die Methode eine ausreichende Anzahl vollflächiger Projektionen erfordert, um „gute Bildstapel“80 zu rekonstruieren. Aus diesem Grund führt die Rekonstruktion mit FBP bei einem Problem mit spärlicher Sicht häufig zu schwerwiegenden Streifenartefakten, die eine weitere Bildauswertung erschweren67. Im Gegensatz zu FBP streben die Methoden bei iterativen Ansätzen nach einer geeigneten Lösung, d. h. nach „guten Bildstapeln“ für ein Problem mit spärlicher Sicht, indem sie mehrere Iterationsschritte übernehmen71. Es aktualisiert wiederholt den Wert innerhalb jedes Voxels und minimiert gleichzeitig die Differenz zwischen einer gewichteten Projektion, die auf der Grundlage von Siddons Algorithmus81 berechnet wird, und einer gemessenen Projektion72. Der Siddon-Algorithmus berechnet schnell, wie ein Röntgenstrahl eine Zielprobe durchdringt, indem er den Strahl in Liniensegmente unterteilt und die Schwächung des Strahls um diese Längen schätzt, wenn er Voxel schneidet. In der Arbeit von Beister et al.71 zeigten die Autoren, dass dieser Ansatz im Vergleich zur herkömmlichen FBP-Methode Rauschen und Streifenartefakte bei der Rekonstruktion mit geringer Bildqualität effektiv unterdrücken konnte. Aufgrund des hohen Rechenaufwands, der durch Iterationsschritte verursacht wird, die durchgeführt werden sollten, bis eine gute Qualitätsübereinstimmung erzielt wird, stellen der Zeitaufwand und die Recheneffizienz solcher Methoden jedoch häufig eine Herausforderung dar72,79.
In den letzten Jahren haben sich auf maschinellem Lernen (ML) basierende Schemata als ein sehr leistungsfähiges Werkzeug herausgestellt, um das Problem des Qualitätsabfalls bei niedrig dosierten XRCT-Bildern zu kompensieren, und zwar als einen anderen Ansatz70,76,82,83.
Mit der Unterstützung der bekannten Flexibilität von ML-Systemen, bei denen das ML-Modell datengesteuert trainiert werden kann, wurde das Problem der Qualitätsverschlechterung der niedrig dosierten XRCT vor allem in zwei Aspekten angegangen: fortgeschrittene Rekonstruktionsmethoden82,84 und Verbesserung die Qualität der Bilder nach vorübergehender Rekonstruktion70,77,83,85.
In einem fortgeschrittenen Rekonstruktionsmethodenansatz schlugen Pelt et al.82 vor, ihr Rekonstruktions-ML-Modell implizit mit FBP zu kombinieren. Durch die Anwendung von FBP auf gegebene Projektionen mit unterschiedlichen Gewichten versucht das Modell, diejenigen Gewichte zu optimieren, die eine ideale Ausgabe (rekonstruiertes Bild) liefern könnten. In ihrer Arbeit zeigten sie, dass ihr Modell herkömmliche FBP- und iterative Ansätze übertrifft. Darüber hinaus behaupteten sie, dass das Modell aufgrund seiner FBP-basierten Eigenschaft im Vergleich zu herkömmlichen iterativen Ansätzen recheneffizient sei. Anstatt sich auf einen angeborenen konventionellen Algorithmus zu verlassen, schlugen Zhu et al.84 das vollständig datengesteuerte AUTOMAP-Modell vor, das den Rekonstruktionsprozess automatisierte. Durch die Verwendung vollständig verbundener Schichten in ihrer Modellarchitektur, die eine starke Verbindung zwischen Ein- und Ausgängen bei gleichzeitiger Minimierung von Datenverlusten ermöglicht, haben sie ihr Modell so konzipiert, dass es in der Lage ist, das Rekonstruktionsbild aus den erfassten Projektionen abzubilden. In ihrer Arbeit zeigten sie, dass das Modell im Vergleich zu herkömmlichen Methoden bei Problemen mit spärlicher Sicht eine rauschreduzierte Ausgabe erzeugen konnte. Trotz der faszinierenden Ergebnisse, die die hervorragende Leistung bei Daten mit geringer Datenmenge zeigten, erfordert diese Art von fortschrittlichen Rekonstruktionsmethoden tendenziell einen großen Rechenspeicher für eine solch komplexe Architektur für maschinelles Lernen. Insbesondere die vollständig verbundenen Schichten, die für die datengesteuerte Durchführung des Rekonstruktionsverfahrens unerlässlich sind, können möglicherweise zu einer großen Anzahl trainierbarer Parameter führen, die viel Speicher erfordern86. Darüber hinaus erhöht sich der erforderliche Rechenspeicher exponentiell entsprechend der Anzahl und Größe der Eingabeprojektionen.
In den Studien zur Verbesserung der Qualität rekonstruierter Bilder schlugen Wolterink et al.83 als weiteren Ansatz das GAN-Modell (Generative Adversarial Networks) vor, das auf niedrig dosierte XRCT-Daten abzielt. Die Autoren schlugen ein Kombinationsmodell aus Diskriminator CNN (Convolutional Neural Network) und Generator CNN vor. Der Generator CNN, der XRCT-Bilder mit hoher Dosis nachahmt, erstellt mithilfe von Regression aus einem gegebenen Bild mit niedriger Dosis rauschreduzierte Bilder. Nacheinander wird entweder eine Ausgabe des CNN-Generators oder ein tatsächliches Hochdosisbild an das Diskriminatormodell übergeben, das bestimmt, ob es sich bei der Eingabe um ein tatsächliches Hochdosisbild oder ein künstliches Bild handelt. Darüber hinaus wurde das Ergebnis des Diskriminatormodells als kontradiktorisches Feedback zum Generatormodell verwendet. Indem sie ihr Modell auf diese Weise trainierten, zeigten die Autoren, dass ihr Generator in der Lage war, ein rauschunterdrücktes und realistisches Bild zu liefern, das mit den Referenz-Routine-Dosis-XRCT-Daten vergleichbar war. Allerdings schränken die Trainingsinstabilität eines solchen Modells und das inhärente Moduskollapsproblem, das verschiedene Datentypen zu sehr vereinfacht, häufig seine Verwendbarkeit ein und erfordern eine sorgfältige Untersuchung87.
Da Convolutional Neural Networks (CNN) in verschiedenen Bildverarbeitungsanwendungen eine beeindruckende Leistung zeigten88,89,90, wurde diese Art von Architektur auch ausführlich untersucht, um Rausch- und Artefaktprobleme bei XRCT-Daten mit niedriger Dosis anzugehen70,76,85. In der Arbeit von Jin et al.70 schlugen die Autoren FBPConvNet vor, dessen Architektur auf dem berühmten U-Net-Ansatz91 basiert, der aus sequentiellen und mehreren De-/Faltungsschichten besteht. Durch das Training ihres Modells mit einer Kombination aus FBP-rekonstruierten Vollbild- und Sparse-View-Bildern war das Modell in der Lage, ein qualitativ vollbildähnliches Bild mit einem gegebenen unterabgetasteten Rekonstruktionsergebnis zu erzeugen. In der Arbeit von Wang et al.76 trainierten die Autoren ihr Modell mit dem gleichen U-Net-Modelltyp namens SARTConvNet mit rekonstruierten Bildern aus dem SART-Algorithmus (Simultaneous Algebraic Rekonstruktion Technique)92, einem iterativen Rekonstruktionsverfahren unter Verwendung hochdosierter FBP-rekonstruierter Bilder. Auf diese Weise konnten sie aus Sparse-View-Daten ein etwas besseres Signal-Rausch-Verhältnis des Rekonstruktionsergebnisses als FBPConvNet erzielen. Darüber hinaus wurde der Ansatz, rekonstruierte Bilder mit CNN-Modellen zu verbessern, inspiriert von solchen vielversprechenden Ergebnissen, auch in anderen Anwendungen wie OCT (Optische Kohärenztomographie)93 und photoakustischer Bildgebung77 weit verbreitet, um das Problem der spärlichen Sicht zu lösen.
Schnelle Scantechniken, die Binning verwenden, um das Signal-Rausch-Verhältnis bei kürzerer Belichtungszeit zu verbessern, führen häufig zu einer verschlechterten Bildauflösung43. Um dieses Problem anzugehen, haben Studien den Einsatz verschiedener Modelle für maschinelles Lernen untersucht, darunter ResNet. Wang et al.94 verwendeten ein ResNet-basiertes Modell, um die Auflösung zu verbessern, indem sie es auf einer Kombination aus Bildern mit hoher und niedriger Auflösung trainierten, die synthetisch aus Bildern mit hoher Auflösung heruntergesampelt wurden. ResNet ist eine beliebte Modellarchitektur in der Computer Vision, die für die effektive Nutzung von Restverbindungen bekannt ist, um einen direkten Informationsfluss durch das Netzwerk zu ermöglichen.
In einer anderen Studie verwendeten Tang et al.95 CycleGAN, um das Rauschproblem anzugehen, das durch das Signal geringer Intensität und die kurze Belichtungszeit der Synchrotronstrahlung verursacht wird. Sie trainierten ihr Modell mit einer Kombination aus gängigen \(\mu \)XRCT- und Synchrotrondaten, wodurch CycleGAN das Rauschen der Synchrotronstrahlung in die gemeinsamen \(\mu \)XRCT-Daten übertragen konnte. Diese Technik ermöglichte es ihnen, Synchrotrondaten zu segmentieren und gleichzeitig das Rauschen zu unterdrücken, indem sie die Fähigkeit von CycleGAN nutzten, die Zuordnung zwischen verschiedenen Bilddomänen zu lernen95.
Unter Berücksichtigung der oben genannten Vor- und Nachteile früherer Arbeiten schlagen wir unseren zeitaufgelösten XRCT-Workflow vor, der es uns ermöglicht, den EICP-Prozess zeitaufgelöst in 3D zu beobachten, nur mit Hilfe eines herkömmlichen laborbasierten XRCT-Geräts. Wir konnten die Datenerfassungszeit während des EICP-Prozesses von drei Stunden auf etwa sechs Minuten reduzieren, indem wir ein vollständiges Datenerfassungsszenario (hohe Dosis) vermieden haben. Wir hielten diese verkürzte Scanzeit von etwa 6 Minuten für schnell genug, um während des Scanvorgangs stabile Bedingungen anzunehmen. Das entsprechende Rauschen und die Artefakte, die durch die Niedrigdosis-Strategie verursacht wurden, wurden durch die Übernahme der 3D-U-Net-Architektur unter Verwendung der vollständigen 3D-Rauminformationen erfolgreich unterdrückt. Das übernommene Modell wurde mit rekonstruierten Bildern niedriger Dosis und den entsprechenden rekonstruierten Bildern hoher Dosis trainiert, die nach dem EICP-Prozess erfasst wurden. Zur Rekonstruktion der Bilder wurde die FBP-Methode verwendet, die einfach und damit recheneffizient ist. Basierend auf den verfeinerten Daten konnten wir die abnehmende Tendenz der Porosität beobachten, die durch die Calciumcarbonat-Ausfällung ausgelöst wurde. Darüber hinaus zeigte der während des EICP parallel gemessene Druckabfall zwischen Ein- und Auslass eine entsprechend steigende Tendenz. Die geschätzte Porosität aus den verfeinerten Scandaten war innerhalb des Porositätsbereichs der High-Fidelity-Daten (vollständig erfasste Daten), die vor (anfänglich) und nach (abschließend) dem EICP-Prozess erhalten wurden, gut begrenzt. Darüber hinaus führen die geschätzten Porositäten zu Potenzgesetz-Exponenten, die für die Beziehung zwischen Porosität und Permeabilität im Bereich zuvor gemeldeter Werte für Mineralausfällungen in porösen Medien angepasst sind30.
Die Probensäulen mit einem Durchmesser d = 5 mm und der Länge \(L = 10\) mm wurden aus Borosilikatglasperlen mit einem mittleren Durchmesser von \(180 \mu \textrm{m}\) gesintert. Nach dem Sintern wurden die Säulen in einen Schrumpfschlauch gewickelt und mit Epoxidharz in einer zylindrischen, 3D-gedruckten Kunststoffform fixiert. Dies wurde durchgeführt, um einheitliche Außenabmessungen jeder Probe sicherzustellen und mithilfe von O-Ring-Dichtungen im Probenhalter eine flache Oberfläche zum Abdichten möglicher Umgehungsströme um die Probe herum bereitzustellen (siehe Abb. 1). Bei dieser Untersuchung wurden Glasperlen-Säulenproben verwendet, die in früheren Experimenten mineralisiert worden waren, nachdem der vorherige Niederschlag durch Eintauchen der Säulen in Salzsäure über Nacht aufgelöst worden war. Darüber hinaus wurden die Proben über Nacht in Salzsäure unter Vakuum gelegt, um das beim Auflösen der Carbonate entstehende Gas zu entfernen, sodass die Säure mit den Carbonaten in Kontakt kommen und eine effizientere Auflösung erfolgen konnte. Nach dem Auflösen wurden die Proben mit entionisiertem Wasser gespült und über Nacht in einem Ofen bei 68 °C getrocknet. Mit dem oben genannten Verfahren wurden zwei Säulen aus Borosilikatglasperlen hergestellt und mit BGC1 und BGC2 bezeichnet.
Zwei reaktive Lösungen wurden nach dem in21 beschriebenen Arbeitsablauf hergestellt: Zur Herstellung von Lösung 1 wurden Harnstoff (MERCK©) und Calciumchlorid in entionisiertem Wasser in äquimolaren Konzentrationen von 1/3 \(\frac{mol}{L}\) gelöst. Für Lösung 2 wurde das Enzym Urease aus Jackbohnenmehl (Sigma Aldrich©) extrahiert: Eine Suspension von Jackbohnenmehl in einer Konzentration von 5 \(\frac{g}{L}\) wurde bei 8 \( ^\circ \)C für 17 h erhitzt und anschließend vor der Verwendung in Experimenten zweimal durch eine Zellulosemembran mit einer Filtergröße von 0,45\(\mathrm {\mu m}\) filtriert.
Der Aufbau für EICP ist in Abb. 1 skizziert. Die Glasperlensäule wurde in einen Probenhalter mit drei Einlässen platziert, wie in der Arbeit von Hommel et al.96. Zwei Einlässe wurden jeweils an die beiden Spritzenpumpen angeschlossen (Mitteldruckpumpen, Typ neMESYS 100N und 25-ml-Glasspritzen von CETONI GmbH, Korbussen, Deutschland). Eine Spritze war mit Lösung 1 gefüllt, die Calciumchlorid und Harnstoff enthielt, und die andere mit Lösung 2, die Urease enthielt. Der dritte Einlass war mit einem Drucksensor mit einem maximalen Druck von 1 bar (Typ MPS2 von Elveflow, Paris, Frankreich) verbunden. Der Auslass war mit einem Abfallbehälter mit kontrollierter konstanter Förderhöhe (Gegendruck) verbunden; Der Durchmesser des Auslassrohrs war groß genug (1,6 mm), um den Druckabfall entlang seiner Länge zu vernachlässigen. Daher kann davon ausgegangen werden, dass der am Einlass gemessene Druck abzüglich des konstanten Kopfdrucks am Auslass der Druckabfall entlang der Säule bei einer bestimmten Durchflussrate ist.
Ähnlich wie das in21 vorgestellte experimentelle Verfahren kann das Experiment in drei Phasen unterteilt werden: (a) anfängliche Permeabilitätsmessung, (b) kontinuierliche Injektion der reaktiven Lösung und (c) abschließende Permeabilitätsmessung, wobei die Umgebungstemperatur 27 °C beträgt \circ \)C.
Zunächst wurde die Permeabilität bestimmt, indem unterschiedliche Flussraten bis zu 0,6 \(\frac{mL}{s}\) nur mit entionisiertem Wasser angewendet wurden (Stufe a). Der gemessene Druck am Einlass abzüglich des konstanten Kopfdrucks am Auslass entspricht dem Druckabfall der Zelle, der durch den Durchfluss durch die Säule verursacht wird. Basierend auf diesen Messungen kann dann die intrinsische Permeabilität k der porösen Domäne durch Neuordnung des Darcy-Gesetzes21 bestimmt werden:
wobei A die Querschnittsfläche (\(A = \pi \frac{d_{column}^2}{4}\)) der Säule, Q die angelegte Durchflussrate und \(\mu \) die dynamische Viskosität ist der Flüssigkeit, die für Stufe (a) und (c) entionisiertes Wasser mit 27 \(^\circ C\) (\(\mu = 0,85 \textrm{mPas}\)) ist. Die Mineralisierung der Glasperlensäule (Stufe b) wurde durch gemeinsame Injektion beider Lösungen, Urease sowie Harnstoff und Calciumchlorid, in die Glasperlensäulen mit einer konstanten Flussrate von \(0,5~\frac{\) gefördert. mu l}{s}\) jeweils. Beachten Sie, dass sich im Einlass des Probenhalters ein spezielles Reservoir befindet, das beim Mischen der Lösungen während der Injektion hilft. Insgesamt wurden 24 ml jeder Lösung injiziert, was zu einer kontinuierlichen Injektion über 13,33 Stunden führte. Die Strömungsgeschwindigkeit wurde so gewählt, dass Kriechströmungsbedingungen mit der Reynoldszahl (Re) \(<1\) gewährleistet sind. Während des gesamten Mineralisierungsprozesses wurde der Eingangsdruck überwacht. Unter der vernünftigen Annahme einer konstanten Viskosität während der Co-Injektion der Reaktionslösungen kann die Permeabilität, normalisiert durch die Anfangspermeabilität \(k_0\), (\(k/k_0\)) als Kehrwert des normalisierten Drucks berechnet werden drop (\(k/k_0 = \Delta p_0 / \Delta p\))21.
Nach der Mineralisierung wurde das System mit entionisiertem Wasser gespült, um die reaktiven Lösungen innerhalb der Säule zu ersetzen und weitere Ausfällungen zu vermeiden. Schließlich wurde eine weitere Permeabilitätsschätzung durchgeführt, indem Flussraten von 0,05 bis 0,2 \(\frac{mL}{s}\) mit entionisiertem Wasser angewendet und gleichzeitig der entsprechende Einlassdruck gemessen wurden (Stufe c).
Skizze des EICP-Aufbaus, wie er in dieser Studie verwendet wird (rechts) und eine detaillierte Skizze des Probenhalters (links).
In dieser Studie werden die XRCT-Daten mit einem modularen und offenen Mikro-Röntgen-Computertomographiesystem (\(\mu \)XRCT)97 am Porous Media Lab (PML) erfasst, das vom Institute of Applied Mechanics (CE) der USA durchgeführt wird Universität Stuttgart. Die Röntgenquelle wurde mit einer Leistung von \(14,3\textrm{W}\), mit einer Beschleunigungsspannung von \(130\textrm{kV}\) und einem Beschleunigungsstrom von \(110\mu\textrm{) betrieben. A}\). Die Probe wurde auf einen Rotationstisch gelegt und mit dem CMOS-Flachbildschirmdetektor Dexela 1512NDT (PerkinElmer, Inc., Waltham, MA, USA) abgebildet. Detaillierte Spezifikationen des Detektors und seiner Implementierung finden sich in der Arbeit von Ruf et al.97. Die angenommene räumliche Auflösung betrug in diesem Experiment 7,5 \(\mu \)m. Somit war der abgebildete Bereich etwa 14,5 mm breit und 11 mm hoch, sodass wir die gesamte Länge unserer Probensäulen erfassen konnten.
Basierend auf unserem Aufbau wurden während des EICP-Experiments (niedrig dosiert) und im Anfangs-/Endschritt des Experiments (hoch dosiert) zwei verschiedene Arten von Datenerfassungsprotokollen realisiert, wie in Tabelle 1 gezeigt. Bei der hochdosierten Datenerfassung Die Scandaten wurden durch Sammeln von Projektionen über die gesamte Spannweite erfasst (einzelne Projektion pro 0,25 Grad Winkel, 1440 Projektionen in 360 Grad). Darüber hinaus wurde diese vollständige Datenerfassung fünfmal durchgeführt, wobei der Detektor bei jedem Datenerfassungsstapel an leicht unterschiedlichen Positionen (Verschiebung mehrerer Pixel) positioniert wurde. Dies wurde durchgeführt, um schlechte Detektorpixel zu kompensieren und das inhärente Rauschen zu unterdrücken, indem die erfassten Projektionen bei jedem Erfassungswinkel gemittelt wurden (Stitching vgl. 97). Beachten Sie, dass jede Charge einer vollständigen Erfassung ungefähr 36 Minuten dauerte, sodass die Gesamtzeit des hochdosierten Scannens einschließlich des bildverbessernden Stitching-Vorgangs 3 Stunden dauerte (36 Minuten \(\times \) 5 \(\ca \) 3 Stunden).
Da die Gesamtscanzeit in unserem Aufbau hauptsächlich von der Anzahl der Projektionen und dem Stitching-Verfahren abhängt, haben wir durch deren Begrenzung eine kürzere Datenerfassungszeit erreicht. Daher wurde bei der niedrig dosierten Datenerfassung trotz der oben genannten Vorteile auf den Stitching-Algorithmus verzichtet, um die Gesamtscanzeit zu reduzieren. Darüber hinaus wurden nur 360 Projektionen (einzelne Projektion pro Winkel) erfasst, was zu einer deutlich verkürzten Scanzeit führte (ungefähr 6 Minuten pro Scandurchlauf). Für beide Aufnahmen haben wir die kürzestmögliche Röntgenbelichtungszeit (500 [ms]) an unserem Aufbau ermittelt, um die Gesamtscanzeit weiter zu reduzieren.
Die mit den oben genannten Verfahren im Abschnitt \(\mu \)XRCT und Bildaufnahme erhaltenen Projektionen wurden mit der kommerziellen Software Octopus Reconstruction© (Version 8.9.4-64 Bit) unter Verwendung der FBP-Methode64 rekonstruiert. Es wurde eine einfache Methode zur Strahlaufhärtungskorrektur und Ringfilterung angewendet, die von der Software unterstützt wurde, um Artefakte zu bewältigen, die nach der Rekonstruktion in den gescannten Daten auftraten. Die ursprüngliche Größe der rekonstruierten Daten, \(1944 \times 1944 \times 1425\) Voxel, wurde auf den interessierenden Bereich zugeschnitten, was zu einer endgültigen Größe von \(1000 \times 1000 \times 1400\) Voxel führte. Anschließend wurde die Funktion „imadjust“ in MatlabR2018a©98 angewendet, um den Kontrast des Bildes für eine bessere Sichtbarkeit der Merkmale zu erhöhen.
Die Architektur des verwendeten 3D-U-Netzes. Mit Hilfe der Faltungs-, Max-Pooling- und Upsampling-Schichten wurde das Modell so konzipiert, dass es für die bereitgestellten Trainingsdaten optimiert wird. Die vorhergesagte Ausgabe des trainierten Modells hat die gleiche Größe wie die als Eingaben gegebenen 3D-Bilder (128 × 128 × 16).
In Abb. 2 wird die detaillierte Architektur unseres Modells beschrieben. Die Standardstruktur des 3D-U-Net-Modells99 wurde übernommen, um die niedrig dosierten Scandaten zu verbessern. Das Modell ist mit sequentiellen Faltungs-/Max-Pooling-Schichten konzipiert, um Merkmale der Eingabe herunterzurechnen. Später werden die heruntergesampelten Informationen mit entsprechenden Faltungs-/Upsampling-Schichten hochgesampelt. Die verwendete Größe der Eingabe beträgt \(128 \times 128 \times 16\). In unserem Modell wird nach der Eingabe eine Batch-Normalisierungsschicht verwendet, um die Verallgemeinerung unseres Modells während des Trainings zu unterstützen, wie von Zhou et al.100 vorgeschlagen. Jede resultierende Schicht nach der Faltungs- und Pooling-Operation und ihre entsprechende hochgetastete Schicht werden durch eine Sprungverbindung verkettet. Jede Sprungverbindung ermöglicht die gleichzeitige Verwendung sowohl der verkleinerten als auch der vergrößerten Funktionen, was für die Erstellung genauer Vorhersagen von Vorteil ist101.
Jede Faltungsschicht besteht aus einer Kernelgröße und einer Aktivierungsfunktion. Die Kernelgröße der Faltungsschicht wurde mit der Aktivierungsfunktion „relu“ zu \(3 \times 3 \times 3\) gewählt, die ihren Ausgabebereich von 0 bis \(\infty \) führt. Die Poolgröße der Pooling-Schichten, d. h. maximales Pooling und Upsampling, wurde als \(2 \times 2 \times 2\) gewählt, sodass die Größe der Schichten in jeder Dimension im Vergleich um die Hälfte reduziert oder um das Doppelte erhöht wird zur vorherigen Ebene nach den Operationen. Die Größe der endgültigen Ausgabe des Modells entspricht der Eingabegröße. Die „Sigmoid“-Aktivierungsfunktion wird auf der letzten Ausgabeebene angewendet, deren Ausgabebereich von 0 bis 1 reicht.
Die Trainingsdaten für unser Modell wurden künstlich aufbereitet, indem 360 Rohprojektionen (1 Projektion pro 1 Grad Drehwinkel) aus den gesamten 1440 Projektionen (1 Projektion pro 0,25 Grad Drehwinkel) ausgewählt und die Rekonstruktion basierend auf dieser Teilmenge mit dem FBP durchgeführt wurden Methode. Beachten Sie, dass wir die Rohprojektionen übernommen haben, bevor wir den Stitching-Algorithmus für die Trainingsdaten angewendet haben. Diese künstlich erstellten rekonstruierten Bilder mit niedriger Dosis wurden später mit den entsprechenden rekonstruierten Bildern mit hoher Dosis als Trainingssatz unseres Modells gepaart. Diese Datenkombination wurde im letzten Schritt nach dem EICP-Prozess erfasst.
Darüber hinaus wurden nur 30 der insgesamt 1400 Schichten der rekonstruierten Daten von BGC1 zum Trainieren des Modells ausgewählt. Um Speichereinschränkungen während des Trainingsschritts zu vermeiden, wurden die ausgewählten Trainingsdaten in kleine Kacheln mit einer Größe von \(128 \times 128 \times 16\) Voxel zugeschnitten. Darüber hinaus enthielt jede zugeschnittene Kachel überlappende Bereiche zu ihren Nachbarn (14 Voxel auf jeder Seite und 3 Voxel oben/unten), um durch die Faltungsoperation verursachte Ungenauigkeiten an den Kanten zu bewältigen91. Auf diese Weise konnte das Modell darauf trainiert werden, ein verbessertes rekonstruiertes Bild aus einem durch Rauschen beeinträchtigten rekonstruierten Bild mit niedriger Dosis vorherzusagen.
Während des Trainings unseres Modells wurde der Adam-Optimierer102 mit der Verlustfunktion „MSE“ (Mean Squared Error) übernommen. Einzelheiten zu den verwendeten Trainingseingabeparametern und -spezifikationen sind in Tabelle 2 aufgeführt. Nach dem Training wurden die zugeschnittenen Niedrigdosisbilder mit einer Größe von \(128 \times 128 \times 16\) als Eingaben für das trainierte Modell angegeben. Die vorhergesagten Ausgaben wurden später nach dem Ausschneiden der überlappenden Bereiche in die ursprüngliche Bildgröße (\(1000 \times 1000 \times 1400\)) zusammengeführt. Die Modellarchitektur und das Training wurden mit Hilfe der Keras 2.3.1-Bibliothek in Python3.7 implementiert. Das implementierte Modell wurde auf einer Hardware trainiert, die aus einer Intel(R) Core(TM) i7-8750H CPU mit 2,2 GHz, NVIDIA Quadro P1000 und 64 GB RAM bestand.
Um die Porosität der Probe und die Präzision der Vorhersage des Modells zu bewerten, wurde der Segmentierungsprozess durchgeführt, der eine Unterscheidung zwischen Porenraum und fester Phase ermöglicht. Dieser Segmentierungsschritt wurde mit der Funktion „Imquantisierung“ in MATLAB©98 durchgeführt, die den Intensitätskontrast innerhalb der Bilddaten nutzt. Da die Methode Quantisierungsebenen für die Segmentierung erfordert, wurden diese Quantisierungsebenen mit der „Multithresh“-Funktion bestimmt, die die Methode von Otsu verwendet103. Die Verwendung des mehrstufigen Schwellenwertansatzes war erforderlich, um im Vergleich zu einem Einzelschwellenwertansatz ein genaueres Segmentierungsergebnis zu erzielen, da das Zielbild mehrere Merkmale wie Porenraum, Schrumpfschlauch, äußere Hohlräume und verschiedene Feststoffe (Glasperlen und Kalziumkarbonat) enthielt. . Indem wir die Funktion nutzten, um das Bild in 4 Klassen zu differenzieren (Beschriftung der Pixel 1–4 entsprechend ihrer Intensität) und die Pixel zu sammeln, die größer als 2 beschriftet waren, konnten wir die feste Phase definieren, z. B. die Glasperlen und das Calciumcarbonat als logisch wahr und der Rest, z. B. Porenraum, Schrumpfschlauch und Außenbereich, als logisch falsch. Anschließend wurden die binärisierten Bilder entsprechend der Querschnittsfläche der gescannten Proben als Zylinder zugeschnitten (Maskierung). Der Radius der Maske wurde mit 340 Pixeln gewählt und zentriert, um den größten Teil des interessierenden Bereichs abzudecken. Dies stellt eine Vereinfachung der Geometrie dar, da der äußere Rand der Glasperlensäule nicht perfekt zylindrisch ist.
Im Folgenden präsentieren und diskutieren wir die Ergebnisse der Bildverbesserung mit dem U-net, einschließlich des Vergleichs mit anderen Bildverbesserungsmethoden, der Beziehung zwischen Druck und Porosität und der Bewertung der resultierenden Porenskalengeometrie.
Die 2D-Querschnittsbilder (xy-Ebene, 662. Schicht von insgesamt 1400 für BGC1) von Bildern mit hoher Dosis (links), künstlich erstellten Bildern mit niedriger Dosis (Mitte) und verbesserten Bildern durch den vorgeschlagenen Arbeitsablauf (rechts) sind in dargestellt entsprechenden Stellen sowohl im Anfangsstadium (oben) als auch im Endstadium (unten). Der Bereich mit der roten Markierung wird unten entsprechend vergrößert.
Der 2D-Querschnitt (xz-Ebene, 500. Schicht von insgesamt 1000 für BGC1) während des EICP-Verfahrens. Repräsentative Bilder der Probe zu unterschiedlichen Aufnahmezeiten ((a), (b) und (c) entsprechen 1, 6 und 12 h). Die Bilder bestehen aus Niedrigdosisbildern (1), entsprechenden Vorhersagen (2) und Segmentierungen (3) (rot: Perlen, blau: Niederschlag).
In Abb. 3 werden Beispiele der rekonstruierten Daten mit Hoch-/Niedrigdosis-Projektionen und den entsprechenden verbesserten Bildern gezeigt, die von unserem trainierten Modell erhalten wurden, um die Auswirkungen der Verbesserung zu demonstrieren. Die gezeigten Bilder wurden nicht im Training verwendet. Die Bilder wurden aus den ersten und letzten Zeitschritten der Experimente ausgewählt, bei denen unverarbeitete Bilder von Hochdosis-Scans zum Vergleich zur Verfügung stehen. Die niedrig dosierten Bilder, die aufgrund fehlender Informationen Rauschen und verzerrte Merkmalsstrukturen aufweisen, wurden durch die Anwendung unseres trainierten Modells verbessert. Insbesondere wurden die Streifenartefakte und das niedrige Signal-Rausch-Verhältnis in den Bildern mit niedriger Dosis deutlich verbessert. Darüber hinaus wurde der Intensitätskontrast zwischen Vollkörpern und Hohlräumen erhöht, was der anschließenden Bildsegmentierung und weiteren Auswertungen zugute kommt. Wir können eine Diskontinuität der Intensitäten an den Rändern und im oberen linken Teil der verbesserten Bilder beobachten, siehe Abb. 3, die wahrscheinlich durch die Faltungs- und Pooling-Schichten in unserem Modell verursacht werden. Möglicherweise liegt dies daran, dass die Bilder für das Training unseres Modells aufgrund von Speicherbeschränkungen zugeschnitten wurden, wie im Abschnitt „Bildverbesserung“ beschrieben. Eine mögliche Erklärung ist, dass der Großteil der verwendeten Trainingsdaten aus dem inneren Teil der Säule ohne Teile der Kante (z. B. Schrumpfschlauch oder Epoxidharzmantel) stammt. Daher kann die Diskontinuität auch durch einen Mangel an Trainingsdaten ausgelöst werden. Dennoch konnten die inneren Merkmale, auf denen unser Hauptinteresse liegt, mit dem bereitgestellten Trainingsdatensatz erfolgreich verbessert werden. Darüber hinaus sind detaillierte Querschnittsbilder in Abb. 4 zu finden. Unser trainiertes Modell kann die schlecht erkannten Merkmale während der EICP verbessern und segmentieren.
Die Vorhersagegenauigkeit unseres Modells wurde anhand der Segmentierung der Modellausgabe bewertet (siehe Abschnitt „Segmentierung“). Für diese Auswertung wurden die rekonstruierten Bilder der Hochdosis- (1440 Projektionen, mit Stitching) und der Niedrigdosis-Projektionen (360 Projektionen) verwendet. Aus den rekonstruierten Bildern der Niedrigdosisprojektionen erzeugte unser trainiertes Modell die entsprechenden verbesserten Bilder. Anschließend wurden diese verbesserten Bilder mithilfe des im Abschnitt „Segmentierung“ beschriebenen Workflows segmentiert. Um mögliche Abweichungen aufgrund der Segmentierungsmethoden zu minimieren, wurde für die verbesserten Niedrigdosis- und Hochdosis-Rekonstruktionsdaten derselbe Segmentierungsworkflow befolgt. Schließlich wurden die binarisierten Bilder aus den verbesserten Bildern und der Hochdosis-Rekonstruktion zur Validierung miteinander verglichen. Der verwendete Genauigkeitsschätzungsparameter war IOU (Intersection of Union), der definiert ist als:
wobei die Grundwahrheit die Segmentierungsergebnisse der Hochdosis-Rekonstruktion und die erweiterten Daten die Ausgabe des trainierten Modells mit den Niedrigdosis-Bildern als Eingaben sind. Beachten Sie, dass bei dieser Validierung die vollständigen binarisierten 3D-Daten (1000 \(\times \) 1000 \(\times 1400\) Voxel) verwendet wurden. Die IOU, wie in Gl. beschrieben. (4) sollte uns „1“ liefern, wenn beide Bilder identisch sind, oder Null, wenn es keinen überlappenden Bereich gibt. In Tabelle 3 sind die resultierenden IOUs beider Experimente, BGC1 und BGC2, für die letzte Phase unseres Experiments, von dem ein Teil für das Modelltraining verwendet wurde, größer als 0,89. Für die Anfangsphase der Experimente sind beide IOU größer als 0,82, obwohl keine der Bilddaten der Anfangsphase für das Training verwendet wurden. (Leser, die an einem detaillierten Vergleich des Histogramms der Porengrößenverteilung interessiert sind, können sich auf die ergänzenden Informationen beziehen.)
Diese Genauigkeitslücke zwischen den Daten der Anfangs- und Endphase könnte möglicherweise verringert werden, indem dem Trainingsdatensatz zusätzliche Daten aus dem Anfangsschritt hinzugefügt werden. In unserer Studie haben wir jedoch beobachtet, dass der Optimierungsprozess während des Trainings unseres Modells tendenziell divergierte, wenn das Modell sowohl mit Daten aus dem ersten als auch aus dem letzten Schritt trainiert wurde, was wahrscheinlich auf die erhöhte Komplexität zurückzuführen ist. Obwohl die divergierende Tendenz durch eine Verringerung der Lernrate angepasst werden könnte, die einer der Hyperparameter ist, die für die Aktualisierung des Trainingsmodells bei jedem Trainingsschritt verantwortlich sind, würde dies aufgrund der verringerten Schrittgröße eine längere Trainingszeit kosten. Außerdem tendiert der Trainingsprozess des Modells bei Verwendung einer geringen Lernrate häufig zu lokalen Minima oder Sattelpunkten, was zu einem nicht verallgemeinerten oder unzureichend trainierten Modell führt104. Unter Berücksichtigung dieser Tatsache wurde das in unserer Studie verwendete Modell nur mit den Daten in der letzten Phase nach dem EICP-Prozess trainiert, um Untertraining und Nichtverallgemeinerung zu verhindern. Außerdem war es wichtig, einen Trainingsdatensatz anzuwenden, der uns stabile Trainingsergebnisse liefert, da die Trainingsdaten in unserer Studie in kleine Kacheln zugeschnitten wurden, wodurch eine große Vielfalt an Trainingsdaten entstand, wobei jede Kachel an Trainingsdaten unterschiedliche Informationen enthielt, wie z Form, Kontrast und Häufigkeit der Intensitäten, insbesondere der Kacheln an den Rändern der Probe. Aufgrund dieser Vielfalt der Trainingsdaten neigte der Optimierungsprozess des Modells dazu, entweder zu divergieren oder die Trainingsergebnisse waren zu spezifisch für eine einzelne Kachel von Trainingsdaten, wenn wir beide Datensätze als Trainingsdaten anwendeten.
Im Bildverbesserungsprozess führten wir einen Vergleich mit einem zusätzlichen ML-basierten Modell und einer iterativen Rekonstruktionsmethode durch, um das Potenzial der vorgeschlagenen Methode aufzuzeigen. Konkret haben wir für diesen Vergleich das Generative Adversarial Network (GAN)105 und die Simultaneous Iterative Reconstruction Technique (SIRT)106 ausgewählt. Alle in diesem Vergleich eingesetzten Methoden verbesserten erfolgreich die Bildqualität. Unter ihnen zeigte das U-net-Modell, auf das sich diese Studie konzentriert, im Vergleich zu anderen eine überlegene Genauigkeit in Bezug auf die IOU-Metrik (SIRT: 0,8060, GAN: 0,8382 und U-net: 0,9058 in einem repräsentativen Volumen der erfassten Daten). Datensatz nach der letzten Phase des EICP-Experiments). Darüber hinaus demonstrierte GAN seine Fähigkeit, realistische Bilder zu erzeugen, während SIRT den Vorteil hatte, dass kein vorab rekonstruiertes Bild erforderlich war. In Bezug auf Speicher und Verarbeitungszeit benötigten die ML-basierten Modelle weniger Ressourcen, während das U-Net weniger Trainingszeit benötigte. Weitere Einzelheiten finden interessierte Leser in den Zusatzinformationen.
Links: Druckdifferenz (\(\Delta {P}\)) und \(1 -\frac{\phi }{\phi _0}\) während der kontinuierlichen Injektion beider Experimente, rechts: normalisierte Permeabilität, wobei k die Permeabilität ist und \ (k_0\) ist die Permeabilität im Anfangsschritt. \(\phi \) ist die Porosität und \(\phi _0\) ist die anfängliche Porosität. Die gestrichelten Linien zeigen Anpassungskurven entsprechend dem Potenzgesetz in Gl. (2) mit Koeffizienten \(\eta \). Mit den ausgefüllten Markierungen werden die Permeabilität und Porosität, gemessen vor/nach der Mineralisierung, angezeigt.
In Abb. 5 werden die überwachten Druckunterschiede zwischen Ein- und Auslass während der durchgeführten Experimente angezeigt und die normalisierten Porositäten bei jedem aufgezeichneten Zeitschritt angezeigt. Die Druckdifferenz (\(\Delta {P}\)) wurde während einer konstanten Durchflussrate von 1 \(\mu {L}/s\) gemessen. Die Porosität (\(\phi \)) wurde aus den binarisierten Scandaten geschätzt, wobei das im Abschnitt „Segmentierung“ beschriebene Verfahren befolgt wurde. Bei dieser Porositätsschätzung wurde der innere Teil der zylindrischen Maske berücksichtigt, der im Abschnitt beschrieben wurde.
Unter Berücksichtigung der Tatsache, dass die anfängliche Porosität \(\phi _0\) aus den Hochdosis-Scandaten in der gezeigten Abbildung stammte, beobachteten wir einen enormen anfänglichen Rückgang der Porosität innerhalb der ersten Stunde, insbesondere im Vergleich zu den anderen Intervallen. Wenn man die geschätzte Genauigkeit des Modells in Tabelle 3 berücksichtigt, kann man vernünftigerweise spekulieren, dass die Ungenauigkeit der Bildverbesserung diese Lücke verursacht hat. Ein weiterer Hinweis auf dieses Argument könnte sein, dass die anfängliche Porositätsverringerung innerhalb der ersten Stunde bei beiden Experimenten etwa 18 % der anfänglichen Porosität beträgt. Darüber hinaus könnte dieser anfängliche Rückgang der Porosität durch die komplexe polymorphe Natur der Calciumcarbonat-Ausfällung ausgelöst werden. Oft fällt zuerst metastabiles amorphes Calciumcarbonat (ACC) als Vorläufer der Mineralisierung aus, bevor es sich in kristallines CaCO\(_3\)107,108 umwandelt.
Aufgrund seiner geringeren Dichte im Vergleich zu den stabileren und kristallineren polymorphen Formen Vaterit oder Calcit glauben wir, dass das Vorhandensein von ACC das Scannen und die entsprechenden Bildverbesserungsergebnisse beeinflussen könnte, was weitere Untersuchungen erfordert31.
Basierend auf der Druckmessung und der Porositätsschätzung zeigen wir auch die Porositäts- und Permeabilitätsbeziehung der beiden Experimente auf der rechten Seite von Abb. 5. Die Permeabilität wurde nach dem im Abschnitt „Versuchsaufbau und -durchführung“ beschriebenen Verfahren berechnet. Die geschätzte Permeabilität zu Beginn der Injektion weist einen relativ großen Fehler auf, der in diesem Fall durch die Standardabweichung definiert wird. Der Grund dafür liegt darin, dass die Druckreaktion der Probe in der frühen Phase des Experiments ein eher niedriges Wert-Rausch-Verhältnis aufweist und daher die Druckreaktion in der Anfangsphase nicht signifikant genug ist, um genau erfasst zu werden. Mit fortschreitender Mineralisierung während des Experiments nahm jedoch der Druckabfall zu und somit verbesserte sich auch die Zuverlässigkeit der gemessenen Druckdaten entsprechend.
Um die Messsicherheit zu erhöhen, wurde, wie im Abschnitt „Versuchsaufbau und -durchführung“ bereits erwähnt, der Druckabfall der Probe vor/nach der Mineralisierung für verschiedene Flussraten gemessen. Basierend auf der sorgfältig gemessenen Anfangspermeabilität wurden daher die während der Mineralisierung beobachteten sich entwickelnden intrinsischen Permeabilitäten normalisiert, die eine Abbauneigung zeigten, wenn die Porosität abnahm.
Die anfängliche/endgültige Porosität und Permeabilität sind in Tabelle 4 aufgeführt. Obwohl beide Proben, BGC1 und BGC2, eine vergleichbare anfängliche Porosität und Permeabilität aufweisen, war die endgültige Verringerung der Permeabilität nicht identisch. In der an die gemessenen Porositäten und Permeabilitäten angepassten angenäherten Potenzgesetzbeziehung (Gleichung (2)) wurden die Exponenten \(\eta \) nach 1 Stunde als \(\eta {2}_{BGC1} = 4,7\ ) und \(\eta {2}_{BGC2} = 2,95\), was bedeutet, dass sie im Bereich der in der Literatur angegebenen Werte (\(\eta \ approx {}\)2 bis 10) liegen30. Die Exponenten vor 1 Stunde waren jedoch relativ groß (\(\eta {1}_{BGC1} = 18,44\) und \(\eta {1}_{BGC2} = 19,39\)). Auch in früheren experimentellen Studien wurde ein deutlicher Abfall der Durchlässigkeit in der Anfangsphase einer ICP-Anwendung beobachtet31,109,110. Basierend auf den vorherigen Untersuchungen glauben wir, dass die Messung mit der geschätzten Porosität aus den erweiterten Scandaten eine gute Übereinstimmung mit früheren Studien zeigte. Die endgültige Porosität und Permeabilität von BGC2 zeigen in Abb. 5 eine unregelmäßige Tendenz. Basierend auf einer sorgfältigen Interpretation der Scandaten gehen wir davon aus, dass das unerwartete Verhalten durch den Spülvorgang verursacht wurde, der durchgeführt wurde, um eine weitere Mineralisierung vor dem endgültigen Scan zu verhindern (siehe Abschnitt). „Versuchsaufbau und -durchführung“).
Mit unserem vorgeschlagenen Arbeitsablauf konnten wir Porositätsänderungen in 4D beobachten, die durch die Entwicklung der Mineralisierung mit EICP verursacht wurden. Während des EICP-Prozesses wurden niedrig dosierte Projektionen erfasst, indem 1 Projektion pro Winkel aufgenommen und die Gesamtbelichtungszeit (kein Stitching) verkürzt wurde, um die Datenerfassungszeit (von 3 Stunden auf 6 Minuten) auf einen kurzen Zeitraum zu reduzieren genug, um Veränderungen zu vernachlässigen, die durch die Ausfällung von Kalziumkarbonat innerhalb der Bildgebungszeit ausgelöst werden. Anschließend wurden die Niedrigdosisdaten mit der FBP-Methode rekonstruiert. Die daraus resultierende Qualitätsverschlechterung aufgrund der Niedrigdosis-Strategie wurde zur weiteren Bewertung mit einem übernommenen maschinellen Lernmodell (3D-U-Net) verstärkt.
Um die große Datenmenge effizient verarbeiten zu können (7 niedrig dosierte Datensätze, die jeweils aus (1000 x 1000 x 1400) Voxeln bestehen), haben wir das 3D-U-Net-Modell und die FBP-Rekonstruktionsmethode übernommen anstelle komplexerer Modelle für maschinelles Lernen, die hohe Rechenkosten und angeborenen Speicher erfordern. Das Modell wurde darauf trainiert, ein Merkmal von einer Niedrigdosis- auf eine Hochdosis-Rekonstruktion abzubilden, wobei die Hochdosis-Daten nach dem EICP-Prozess erfasst wurden. Das Modell, das nur mit wenigen Teilmengen der Daten (30 Schichten) trainiert wurde, war in der Lage, sowohl Rauschen als auch Artefakte effektiv zu reduzieren, während herkömmliche Filteransätze vermutlich Schwierigkeiten mit diesen Rauschen und Artefakten innerhalb eines rekonstruierten Bildes haben111. Die Genauigkeit der von unserem trainierten Modell verbesserten Bilder wurde durch den Vergleich mit Hochdosisdaten mit hoher Wiedergabetreue bewertet. Mit Hilfe der Binarisierung haben wir gezeigt, dass die geschätzten Porositäten aus den verbesserten Bildern im Bereich der High-Fidelity-Daten lagen, die vor/nach der Mineralisierung durch EICP erfasst wurden. Aus den zunehmenden gemessenen Druckunterschieden zwischen Ein- und Auslass jeder Probe während des EICP-Prozesses schließen wir auf eine durch Mineralisierung verursachte Abnahme der Permeabilität.
Basierend auf den präsentierten Ergebnissen gehen wir davon aus, dass der vorgeschlagene Arbeitsablauf für die weitere Untersuchung der Mineralfällung in porösen Medien und insbesondere für die detaillierte Untersuchung realistischer Porositäts-Permeabilitätsbeziehungen für verschiedene relevante poröse Medien und Mineralfällungsbedingungen verwendet werden kann. Bei Verwendung von 3D-Proben anstelle von 2D-Proben21,31,32,33,34 ist zu erwarten, dass die ermittelten Porositäts-Permeabilitätsbeziehungen realistischer sind als diejenigen, die aus den 1D- oder 2D-Aufbauten in den genannten Referenzen erhalten werden, da 3D-Systeme Porenverbindungen ermöglichen in allen drei Dimensionen und, zumindest für unsere Untersuchung, schien die Permeabilitätsabnahme zu einem großen Teil durch die Konnektivität bzw. Trennung der Poren gesteuert zu werden. Wir möchten jedoch auch betonen, dass zur Bestimmung realistischer Porositäts-Permeabilitätsbeziehungen große Sorgfalt darauf verwendet werden muss, dass die Probe für das untersuchte poröse Medium repräsentativ ist. Beispielsweise hatte unsere Probe BGC2 einen klaren bevorzugten Fließweg am Rand der Probe, was die scheinbare Permeabilität von BCG2 erhöhte und dadurch die Informationen über die Auswirkungen der Mineralisierung des porösen Mediums, die gewonnen werden können, verringerte. Darüber hinaus haben wir durch die Auswertung der Veränderungen einzelner Porenkörper im Laufe der Zeit gezeigt, dass sich die Gesamtzahl der Porenkörper während der Mineralisierung in unseren Glasperlensäulen zwar nicht wesentlich ändert, mit fortschreitender Mineralisierung jedoch immer mehr Porenkörper getrennt werden. Darüber hinaus stellten wir bei dieser Auswertung fest, dass Probe BGC1 homogener verteilte Porenkörper aufwies, während BGC2 einen klaren bevorzugten Fließweg aufwies. Diese Merkmale blieben während der Mineralisierung erhalten und scheinen für den Grad der Permeabilitätsreduzierung aufgrund von EICP wichtig zu sein (interessierte Leser verweisen auf die ergänzenden Informationen). Zukünftig könnte der Genauigkeitsvergleich mit Daten, die an einer Synchrotronlichtquelle gewonnen wurden, genutzt werden, um den vermuteten Effekt von ACC auf die Genauigkeit unseres Arbeitsablaufs und insbesondere auf die frühe Phase der Porositätsschätzung zu untersuchen.
Der gemessene Druck und die erfassten tomographischen Daten während des durchgeführten Experiments sind unter DARUS, Time Resolution Micro-XRCT Dataset of Enzymatical Induced Calcit Precipitation (EICP) in Sintered Glass Bead Columns, über doi:10.18419/darus-2227 ohne Registrierung und unter den Bedingungen der Creative Commons Attribution verfügbar .
Die erste Version des Bildverbesserungscodes: Zeitaufgelöste Tomogramme der EICP-Anwendung unter Verwendung von 3D-U-Net zur Verbesserung der Niedrigdosisbilder wird unter doi:10.18419/darus-2991 ohne Registrierung und unter den Bedingungen der Creative Commons-Attribution gespeichert. Der Code ist in Python (https://www.python.org/) entwickelt.
Scheer, D., Flemisch, B. & Class, H. Subsurface Environmental Modelling zwischen Wissenschaft und Politik (Springer International Publishing, Cham, 2021).
Buchen Sie Google Scholar
Matos, CR, Carneiro, JF & Silva, PP Überblick über groß angelegte unterirdische Energiespeichertechnologien zur Integration erneuerbarer Energien und Kriterien für die Reservoiridentifizierung. J. Energiespeicher 21, 241–258. https://doi.org/10.1016/j.est.2018.11.023 (2019).
Artikel Google Scholar
Class, H. et al. Eine Benchmark-Studie zu Problemen im Zusammenhang mit der CO2-Speicherung in geologischen Formationen. Berechnen. Geosci. 13, 409. https://doi.org/10.1007/s10596-009-9146-x (2009).
Artikel MATH Google Scholar
Kirkland, CM et al. Bewältigung der Bohrlochintegrität und der Durchlässigkeit von Diebzonen mithilfe mikrobiell induzierter Calciumcarbonat-Ausfällung (MICP): Eine Felddemonstration. J. Benzin. Wissenschaft. Ing. 190, 107060. https://doi.org/10.1016/j.petrol.2020.107060 (2020).
Artikel CAS Google Scholar
Phillips, A. et al. Verbesserung der Bohrlochzementintegrität durch mikrobiell induzierte Calcitfällung (MICP): Eine Demonstration im Feldmaßstab. J. Benzin. Wissenschaft. Ing. 171, 1141–1148. https://doi.org/10.1016/j.petrol.2018.08.012 (2018).
Artikel CAS Google Scholar
Phillips, AJ et al. Bruchversiegelung mit mikrobiell induzierter Calciumcarbonat-Fällung: Eine Feldstudie. Umgebung. Wissenschaft. Technol. 50, 4111–4117. https://doi.org/10.1021/acs.est.5b05559 (2016).
Artikel ADS CAS PubMed Google Scholar
Cunningham, AB et al. Minderung von Bohrlochleckagen durch technische Biomineralisierung. Energy Procedia 63, 4612–4619. https://doi.org/10.1016/j.egypro.2014.11.494 (2014).
Artikel CAS Google Scholar
Cuthbert, MO et al. Eine Feld- und Modellstudie zur Reduzierung der Durchlässigkeit von gebrochenem Gestein mithilfe mikrobiell induzierter Calcit-Ausfällung. Umgebung. Wissenschaft. Technol. 47, 13637–13643. https://doi.org/10.1021/es402601g (2013).
Artikel ADS CAS PubMed Google Scholar
Rahman, MM et al. Aktueller Überblick über mikrobiell induzierte Calcitfällung und ihre Nachhaltigkeit in technischen Anwendungen. Nachhaltigkeithttps://doi.org/10.3390/su12156281 (2020).
Artikel Google Scholar
Mujah, D., Shahin, MA & Cheng, L. Aktuelle Übersicht über die Biozementierung durch mikrobiell induzierte Calcitfällung (MICP) zur Bodenstabilisierung. Geomikrobiol. J. 34, 524–537. https://doi.org/10.1080/01490451.2016.1225866 (2017).
Artikel CAS Google Scholar
Umar, M., Kassim, KA & Chiet, KTP Biologische Prozesse der Bodenverbesserung im Tiefbau: Ein Überblick. J. Rock Mech. Geotechnik. Ing. 8, 767–774. https://doi.org/10.1016/j.jrmge.2016.02.004 (2016).
Artikel Google Scholar
Phillips, AJ et al. Technische Anwendungen der ureolytischen Biomineralisierung: Ein Rückblick. Biofouling 29, 715–733. https://doi.org/10.1080/08927014.2013.796550 (2013).
Artikel CAS PubMed Google Scholar
Zeng, C. et al. Experimentelle und numerische Analyse einer Feldversuchsanwendung mikrobiell induzierter Calcitfällung zur Bodenstabilisierung. J. Geotech. Geoumgebung. Ing. 147, 05021003. https://doi.org/10.1061/(ASCE)GT.1943-5606.0002545 (2021).
Artikel Google Scholar
Meng, H., Gao, Y., He, J., Qi, Y. & Hang, L. Mikrobiell induzierter Karbonatniederschlag zur Winderosionskontrolle von Wüstenböden: Tests im Feldmaßstab. Geoderma 383, 114723. https://doi.org/10.1016/j.geoderma.2020.114723 (2021).
Artikel ADS CAS Google Scholar
Woolley, MA, van Paassen, L. & Kavazanjian, E. Impact on Surface Hydraulic Conductivity of EICP Treatment for Fugitive Dust Mitigation 132–140 (American Society of Civil Engineers (ASCE), UK, 2020).
Google Scholar
Nassar, MK et al. Groß angelegte Experimente zur mikrobiell induzierten Calcitfällung (MICP): Entwicklung und Vorhersage reaktiver Transportmodelle. Wasserressource. Res. 54, 480–500. https://doi.org/10.1002/2017WR021488 (2018).
Artikel ADS Google Scholar
Gomez, MG et al. Biozementierungstests im Feldmaßstab zur Verbesserung von Sanden. Proz. Inst. Bauingenieur. Bodenverbesserung. 168, 206–216. https://doi.org/10.1680/grim.13.00052 (2015).
Artikel Google Scholar
van Paassen, L.A., Ghose, R., van der Linden, TJM, van der Star, WRL & van Loosdrecht, MCM Quantifizierung der biovermittelten Bodenverbesserung durch Ureolyse: Biogrout-Experiment im großen Maßstab. J. Geotech. Geoumgebung. Beängstigend. 136, 1721–1728. https://doi.org/10.1061/(ASCE)GT.1943-5606.0000382 (2010).
Artikel CAS Google Scholar
Jimenez-Martinez, J., Nguyen, J. & Or, D. Kontrolle von Prozessen im Porenmaßstab, um die Biomineralisierung unter der Oberfläche zu bändigen. Rev. Environ. Wissenschaft. Bio/Technol.https://doi.org/10.1007/s11157-021-09603-y (2022).
Artikel Google Scholar
von Wolff, L., Weinhardt, F., Class, H., Hommel, J. & Rohde, C. Untersuchung des Kristallwachstums bei enzymatisch induzierter Calcitfällung durch mikrofluidische experimentelle Methoden und Vergleich mit mathematischer Modellierung. Transp. Poröse Medien 137, 327–343. https://doi.org/10.1007/s11242-021-01560-y (2021).
Artikel CAS Google Scholar
Weinhardt, F. et al. Experimentelle Methoden und Bildgebung zur enzymatisch induzierten Calcitfällung in einer Mikrofluidikzelle. Wasserressource. Res. 57, e2020WR029361. https://doi.org/10.1029/2020WR029361 (2021).
Artikel ADS CAS Google Scholar
Hommel, J. et al. Ein numerisches Modell für die enzymatisch induzierte Calciumcarbonatfällung. Appl. Wissenschaft. (Schweiz) 10, 1–26. https://doi.org/10.3390/app10134538 (2020).
Artikel CAS Google Scholar
Cunningham, AB et al. Modellierung der mikrobiell induzierten Calcitausfällung im Feldmaßstab. Berechnen. Geosci. 23, 399–414. https://doi.org/10.1007/s10596-018-9797-6 (2019).
Artikel Google Scholar
Tveit, S. & Landa Marbán, D. Optimierung von Injektionsstrategien im Feldmaßstab zur Leckageminderung durch mikrobiell induzierte Calcitfällung. arXivhttps://doi.org/10.13140/RG.2.2.22042.16324 (2022).
Artikel Google Scholar
Landa-Marbán, D., Tveit, S., Kumar, K. & Gasda, S. Praktische Ansätze zur Untersuchung mikrobiell induzierter Calcitausfällung im Feldmaßstab. Int. J. Greenhouse Gas Control 106, 103256. https://doi.org/10.1016/j.ijggc.2021.103256 (2021).
Artikel CAS Google Scholar
Wang, X. & Nackenhorst, U. Ein gekoppeltes biochemohydraulisches Modell zur Vorhersage der Porositäts- und Permeabilitätsreduzierung während der mikrobiell induzierten Calcitfällung. Adv. Wasserressource. 140, 103563. https://doi.org/10.1016/j.advwatres.2020.103563 (2020).
Artikel CAS Google Scholar
Minto, JM, Lunn, RJ & El Mountassir, G. Entwicklung eines reaktiven Transportmodells zur Feldsimulation der mikrobiell induzierten Karbonatfällung. Wasserressource. Res. 55, 7229–7245. https://doi.org/10.1029/2019WR025153 (2019).
Artikel ADS CAS Google Scholar
van Wijngaarden, WK, Vermolen, FJ, Meurs, GAM & Vuik, C. Ein mathematisches Modell für Biogrout. Berechnen. Geosci. 17, 463–478. https://doi.org/10.1007/s10596-012-9316-0 (2013).
Artikel MathSciNet MATH Google Scholar
Ebigbo, A. et al. Modellierung der mikrobiell induzierten Karbonatmineralfällung in Sandsäulen im Darcy-Maßstab. Wasserressource. Res. 48, W07519. https://doi.org/10.1029/2011WR011714 (2012).
Artikel ADS CAS Google Scholar
Hommel, J., Coltman, E. & Class, H. Porositäts-Permeabilitätsbeziehungen für sich entwickelnden Porenraum: Eine Übersicht mit Schwerpunkt auf (bio-)geochemisch veränderten porösen Medien. Transp. Poröse Medien 124, 589–629. https://doi.org/10.1007/s11242-018-1086-2 (2018).
Artikel Google Scholar
Weinhardt, F. et al. Die räumlich-zeitliche Verteilung von Niederschlägen und der Übergang der Mineralphase während der Biomineralisierung beeinflussen die Porositäts-Permeabilitäts-Beziehungen – Mikrofluidische Untersuchungen. Transp. Poröse Medien 143, 527–549. https://doi.org/10.1007/s11242-022-01782-8 (2022).
Artikel CAS Google Scholar
Kim, D., Mahabadi, N., Jang, J. & van Paassen, LA Bewertung der Kinetik und Porenskaleneigenschaften der biologischen Calciumcarbonat-Ausfällung in porösen Medien mithilfe eines Mikrofluidik-Chip-Experiments. Wasserressource. Res. 56, e2019WR025420. https://doi.org/10.1029/2019WR025420 (2020).
Artikel ADS Google Scholar
Wang, Y., Soga, K., Dejong, JT & Kabla, AJ Ein mikrofluidischer Chip und seine Verwendung zur Charakterisierung des Partikelverhaltens der mikrobiell induzierten Calciumcarbonat-Ausfällung (MICP). Geotechnik 69, 1086–1094. https://doi.org/10.1680/jgeot.18.P.031 (2019).
Artikel Google Scholar
Wang, Y., Soga, K., DeJong, JT & Kabla, AJ Mikroskalige Visualisierung mikrobiell induzierter Calciumcarbonat-Fällungsprozesse. J. Geotech. Geoumgebung. Ing. 145, 04019045. https://doi.org/10.1061/(ASCE)GT.1943-5606.0002079 (2019).
Artikel CAS Google Scholar
Ahkami, M., Roesgen, T., Saar, MO & Kong, X.-Z. Hochauflösendes Temporo-Ensemble-PIV zur Auflösung von Porenskalenströmungen in 3D-gedruckten gebrochenen porösen Medien. Transp. Poröse Medien 129, 467–483. https://doi.org/10.1007/s11242-018-1174-3 (2019).
Artikel CAS Google Scholar
de Winter, DAM et al. Die Komplexität des Flusses poröser Medien wird in einem mikrofluidischen Modell charakterisiert, das auf konfokaler Laser-Scanning-Mikroskopie und Mikro-PIV basiert. Transp. Poröse Medien 136, 343–367. https://doi.org/10.1007/s11242-020-01515-9 (2021).
Artikel MathSciNet Google Scholar
Bruno, F. et al. Fortgeschrittene Techniken der Magnetresonanztomographie (MRT): Technische Prinzipien und Anwendungen in der Nanomedizin. Krebserkrankungenhttps://doi.org/10.3390/cancers14071626 (2022).
Artikel PubMed PubMed Central Google Scholar
Nayak, KS, Lim, Y., Campbell-Washburn, AE & Steeden, J. Echtzeit-Magnetresonanztomographie. J. Magn. Resonanz. Bildgebung 55, 81–99. https://doi.org/10.1002/jmri.27411 (2022).
Artikel PubMed Google Scholar
Mitchell, J., Chandrasekera, T., Holland, D., Gladden, L. & Fordham, E. Magnetresonanztomographie in der petrophysikalischen Kernanalyse im Labor. Physik. Rep. 526, 165–225. https://doi.org/10.1016/j.physrep.2013.01.003 (2013).
Artikel ADS MathSciNet CAS Google Scholar
Ramskill, NP et al. Chemisch selektive In-situ-Überwachung mehrphasiger Verschiebungsprozesse in einem Karbonatgestein mittels 3D-Magnetresonanztomographie. Transp. Poröse Medien 121, 15–35. https://doi.org/10.1007/s11242-017-0945-6 (2018).
Artikel CAS PubMed Google Scholar
Bi, J., Ning, L., Zhao, Y., Wu, Z. & Wang, C. Analyse der mikroskopischen Entwicklung von Gesteinsschäden basierend auf Echtzeit-Kernspinresonanz. Rock-Mech. Rock Eng.https://doi.org/10.1007/s00603-023-03238-x (2023).
Artikel Google Scholar
Stolfi, A. & De Chiffre, L. Laborvergleich einer physischen und einer virtuellen Baugruppe, gemessen mittels CT. Präzise. Ing. 51, 263–270. https://doi.org/10.1016/j.precisioneng.2017.08.018 (2018).
Artikel Google Scholar
Zwanenburg, EA, Williams, MA & Warnett, JM Übersicht über Hochgeschwindigkeitsbildgebung mit laborbasierter Röntgen-Computertomographie. Mess. Wissenschaft. Technol. 33, 012003. https://doi.org/10.1088/1361-6501/ac354a (2021).
Artikel ADS CAS Google Scholar
Balcewicz, M. et al. Digitale Gesteinsphysik: Ein geologischer Workflow zur Segmentierung von anisotropem Ruhrsandstein. Vorderseite. Erdwissenschaft. 9, 1–19. https://doi.org/10.3389/feart.2021.673753 (2021).
Artikel Google Scholar
Ballesteros-Cánovas, JA, Stoffel, M. & Guardiola-Albert, C. XRCT-Bilder und Variogramme zeigen 3D-Veränderungen in der Holzdichte von Uferbäumen, die von Überschwemmungen betroffen sind. Bäume strukturieren. Funktion. 29, 1115–1126. https://doi.org/10.1007/s00468-015-1191-6 (2015).
Artikel Google Scholar
Lee, D., Karadimitriou, N., Ruf, M. & Steeb, H. Erkennung von Mikrofrakturen: Ein umfassender Vergleich konventioneller und auf maschinellem Lernen basierender Segmentierungsmethoden. Feste Erde 13, 1475–1494. https://doi.org/10.5194/se-13-1475-2022 (2022).
Artikel Google Scholar
Markert, M., Katzmann, J., Birtel, V., Garrecht, H. & Steeb, H. Untersuchung des Einflusses des Feuchtigkeitsgehalts auf das Ermüdungsverhalten von HPC mithilfe von DMA und XRCT. Materialienhttps://doi.org/10.3390/ma15010091 (2022).
Artikel PubMed PubMed Central Google Scholar
Ma, X. et al. Anwendung von Deep-Learning-Faltungs-Neuronalen Netzen zur Erkennung interner Tablet-Defekte: Hohe Genauigkeit, Durchsatz und Anpassungsfähigkeit. J. Pharm. Wissenschaft. 109, 1547–1557. https://doi.org/10.1016/j.xphs.2020.01.014 (2020).
Artikel CAS PubMed Google Scholar
Cnudde, V. & Boone, MN Hochauflösende Röntgen-Computertomographie in den Geowissenschaften: Ein Überblick über die aktuelle Technologie und Anwendungen. Erdwissenschaft. Rev. 123, 1–17. https://doi.org/10.1016/j.earscirev.2013.04.003 (2013).
Artikel ADS Google Scholar
Stock, SR Jüngste Fortschritte in der auf Materialien angewendeten Röntgenmikrotomographie. Int. Mater. Rev. 53, 129–181. https://doi.org/10.1179/174328008X277803 (2008).
Artikel CAS Google Scholar
Butson, MJ, Cheung, T. & Yu, PK Messung der Energieabhängigkeit für radiochrome XRCT-Filme. Med. Physik. 33, 2923–2925. https://doi.org/10.1118/1.2219330 (2006).
Artikel PubMed Google Scholar
Jerri, A. Das Shannon-Stichprobentheorem – seine verschiedenen Erweiterungen und Anwendungen: Eine Übersicht über das Tutorial. Proz. IEEE 65, 1565–1596. https://doi.org/10.1109/PROC.1977.10771 (1977).
Artikel ADS MATH Google Scholar
Bultreys, T. et al. Schnelle laborbasierte Mikrocomputertomographie für die Porenforschung: Anschauliche Experimente und Perspektiven für die Zukunft. Adv. Wasserressource. 95, 341–351. https://doi.org/10.1016/j.advwatres.2015.05.012 (2016).
Artikel ADS Google Scholar
Van Offenwert, S., Cnudde, V. & Bultreys, T. Visualisierung und Quantifizierung des transienten Transports gelöster Stoffe im Porenmaßstab mithilfe schneller Mikrocomputertomographie. Wasserressource. Res. 55, 9279–9291. https://doi.org/10.1029/2019WR025880 (2019).
Artikel ADS Google Scholar
Dewanckele, J., Boone, M., Coppens, F., van Loo, D. & Merkle, A. Innovationen im laborbasierten dynamischen Mikro-CT zur Beschleunigung der In-situ-Forschung. J. Microsc. 277, 197–209. https://doi.org/10.1111/jmi.12879 (2020).
Artikel CAS PubMed Google Scholar
Carmignato, S., Dewulf, W. & Leach, R. Industrielle Röntgen-Computertomographie (Springer, UK, 2017).
Google Scholar
Lichtner, PC, Steefel, CI & Oelkers, EH Reaktiver Transport in porösen Medien. Reagieren. Transp. Poröse Medien 34, 1–438. https://doi.org/10.1051/proc/2009049 (2019).
Artikel Google Scholar
Singh, K., Jung, M., Brinkmann, M. & Seemann, R. Kapillardominierte Flüssigkeitsverdrängung in porösen Medien. Annu. Rev. Fluid Mech. 51, 429–449. https://doi.org/10.1146/annurev-fluid-010518-040342 (2019).
Artikel ADS MathSciNet MATH Google Scholar
Hasan, S. et al. Direkte Charakterisierung des Transports gelöster Stoffe in ungesättigten porösen Medien mittels schneller Röntgen-Synchrotron-Mikrotomographie. Proz. Nat. Acad. Wissenschaft. USA 117, 23443–23449. https://doi.org/10.1073/pnas.2011716117 (2020).
Artikel ADS CAS Google Scholar
Chen, Y. et al. Nichteindeutigkeit der hydrodynamischen Dispersion mithilfe schneller 4D-Synchrotron-Röntgenbildgebung aufgedeckt. Wissenschaft. Adv. 7, 1–7. https://doi.org/10.1126/sciadv.abj0960 (2021).
Artikel Google Scholar
Madhusudhan, BN et al. Gasblasendynamik während der Methanhydratbildung und ihr Einfluss auf die geophysikalischen Eigenschaften von Sedimenten mithilfe hochauflösender Synchrotronbildgebung und gesteinsphysikalischer Modellierung. Vorderseite. Earth Sci.https://doi.org/10.3389/feart.2022.877641 (2022).
Artikel Google Scholar
Hwu, Y., Margaritondo, G. & Chiang, AS Fragen und Antworten: Warum Synchrotron-Röntgentomographie für die Multiskalen-Konnektomkartierung verwenden? BMC Biol. 15, 1–9 https://doi.org/10.1186/s12915-017-0461-8 (2017).
Artikel CAS Google Scholar
Marone, F., Studer, A., Billich, H., Sala, L. & Stampanoni, M. Auf dem Weg zur spontanen Datennachbearbeitung für die tomografische Echtzeitbildgebung bei TOMCAT. Adv. Struktur. Chem. Bildgebung 3, 1–11. https://doi.org/10.1186/s40679-016-0035-9 (2017).
Artikel PubMed PubMed Central Google Scholar
Vlassenbroeck, J. et al. Softwaretools zur Quantifizierung der Röntgenmikrotomographie am UGCT. Nukl. Instrument. Methoden Phys. Res. Sekte. A 580, 442–445. https://doi.org/10.1016/j.nima.2007.05.073 (2007).
Artikel ADS CAS Google Scholar
Aprilliyani, R., Prabowo, RG & Basari.,. Zur Leistung von SART- und ART-Algorithmen für die Mikrowellenbildgebung. AIP-Konferenz. Proc.https://doi.org/10.1063/1.5023980 (2018).
Artikel Google Scholar
Wang, G., Ye, JC & De Man, B. Deep Learning für die tomografische Bildrekonstruktion. Nat. Mach. Intel. 2, 737–748. https://doi.org/10.1038/s42256-020-00273-z (2020).
Artikel Google Scholar
Tian, Z., Jia, X., Yuan, K., Pan, T. & Jiang, SB Niedrigdosis-CT-Rekonstruktion mittels kantenerhaltender Totalvariationsregularisierung. Physik. Med. Biol. 56, 5949–5967. https://doi.org/10.1088/0031-9155/56/18/011 (2011).
Artikel PubMed PubMed Central Google Scholar
Waske, A., Rahn, H. & Odenbach, S. Schnelle Tomographie: Eine Studie zur Bildqualität. AIP-Konferenz. Proz. 1221, 124–128. https://doi.org/10.1063/1.3399238 (2010).
Artikel ADS Google Scholar
Yang, X. et al. Niedrigdosis-Röntgentomographie durch ein tiefes Faltungs-Neuronales Netzwerk. Wissenschaft. Rep. 8, 1–13. https://doi.org/10.1038/s41598-018-19426-7 (2018).
Artikel ADS CAS Google Scholar
Jin, KH, McCann, MT, Froustey, E. & Unser, M. Deep Convolutional Neural Network für inverse Probleme in der Bildgebung. IEEE Trans. Bildprozess. 26, 4509–4522. https://doi.org/10.1109/TIP.2017.2713099 (2017).
Artikel ADS MathSciNet MATH Google Scholar
Beister, M., Kolditz, D. & Kalender, WA Iterative Rekonstruktionsmethoden in der Röntgen-CT. Physik Med. 28, 94–108. https://doi.org/10.1016/j.ejmp.2012.01.003 (2012).
Artikel Google Scholar
Al-masni, MA et al. Eine schnelle algebraische 3D-Volumenbildrekonstruktionstechnik für die Kegelstrahl-Computertomographie. Biocybern. Biomed. Ing. 37, 619–629. https://doi.org/10.1016/j.bbe.2017.07.001 (2017).
Artikel Google Scholar
Arab, MG et al. Aktuelle Überprüfung der enzyminduzierten Calcitfällung (EICP) zur Bodenverbesserung: Anwendungen und Perspektiven. Geowissenschaften (Schweiz) 11, 1–40. https://doi.org/10.3390/geosciences11120492 (2021).
Artikel CAS Google Scholar
Bak, SM, Shadike, Z., Lin, R., Yu, X. & Yang, XQ In situ/operando synchrotronbasierte Röntgentechniken für die Lithium-Ionen-Batterieforschung. NPG Asia Mater. 10, 563–580. https://doi.org/10.1038/s41427-018-0056-z (2018).
Artikel Google Scholar
Seger, MM & Danielsson, PE Scannen von Baumstämmen mit linearer Kegelstrahl-Tomographie. Berechnen. Elektron. Landwirtschaft. 41, 45–62. https://doi.org/10.1016/S0168-1699(03)00041-3 (2003).
Artikel Google Scholar
Wang, J., Liang, J., Cheng, J., Guo, Y. & Zeng, L. Deep-Learning-basierter Bildrekonstruktionsalgorithmus für die translatorische Computertomographie mit begrenztem Winkel. PLUS EINS 15, 1–20. https://doi.org/10.1371/journal.pone.0226963 (2020).
Artikel CAS Google Scholar
Deng, H., Wang, X., Cai, C., Luo, J. & Ma, C. Durch maschinelles Lernen verbesserte photoakustische Computertomographie in einer eingeschränkten Ansichtskonfiguration. In Yuan, X.-C., Carney, PS, Shi, K. & Somekh, MG (Hrsg.) Advanced Optical Imaging Technologies II, vol. 11186, 52 – 59, https://doi.org/10.1117/12.2539148. Internationale Gesellschaft für Optik und Photonik (SPIE, 2019).
Chung, SY, Kim, JS, Stephan, D. & Han, TS Überblick über den Einsatz der Mikrocomputertomographie (Mikro-CT) zur Untersuchung der Beziehung zwischen den Materialeigenschaften und den Eigenschaften zementbasierter Materialien. Konstr. Bauen. Mater. 229, 116843. https://doi.org/10.1016/j.conbuildmat.2019.116843 (2019).
Artikel Google Scholar
McCann, MT, Nilchian, M., Stampanoni, M. & Unser, M. Schnelle 3D-Rekonstruktionsmethode für die Differentialphasenkontrast-Röntgen-CT. Opt. Express 24, 14564. https://doi.org/10.1364/oe.24.014564 (2016).
Artikel ADS PubMed Google Scholar
Zeng, GL Rauschgewichteter FBP-Algorithmus im räumlichen Bereich. Med. Physik. 41, 1–10. https://doi.org/10.1118/1.4870989 (2014).
Artikel Google Scholar
Siddon, RL Schnelle Berechnung des genauen radiologischen Pfades für ein dreidimensionales CT-Array. Med. Physik. 12, 252–255. https://doi.org/10.1118/1.595715 (1985).
Artikel CAS PubMed Google Scholar
Pelt, DM & Batenburg, KJ Schnelle tomografische Rekonstruktion aus begrenzten Daten mithilfe künstlicher neuronaler Netze. IEEE Trans. Bildprozess. 22, 5238–5251. https://doi.org/10.1109/TIP.2013.2283142 (2013).
Artikel ADS PubMed Google Scholar
Wolterink, JM, Leiner, T., Viergever, MA & Išgum, I. Generative kontradiktorische Netzwerke zur Rauschreduzierung in der Niedrigdosis-CT. IEEE Trans. Med. Bildgebung 36, 2536–2545. https://doi.org/10.1109/TMI.2017.2708987 (2017).
Artikel PubMed Google Scholar
Zhu, B., Liu, JZ, Cauley, SF, Rosen, BR & Rosen, MS Bildrekonstruktion durch domänentransformiertes Mannigfaltigkeitslernen. Natur 555, 487–492. https://doi.org/10.1038/nature25988 (2018).
Artikel ADS CAS PubMed Google Scholar
Kalare, KW & Bajpai, MK RecDNN: Tiefes neuronales Netzwerk für die Bildrekonstruktion aus Projektionsdaten mit eingeschränkter Sicht. Weich. Berechnen. 24, 17205–17220. https://doi.org/10.1007/s00500-020-05013-4 (2020).
Artikel Google Scholar
Hauptmann, A. & Cox, B. Deep Learning in der photoakustischen Tomographie: Aktuelle Ansätze und zukünftige Richtungen. J. Biomed. Optik 25, 1–46. https://doi.org/10.1117/1.jbo.25.11.112903 (2020).
Artikel CAS Google Scholar
Li, Y., Xiao, N. & Ouyang, W. Verbesserte generative gegnerische Netzwerke mit Rekonstruktionsverlust. Neurocomputing 323, 363–372. https://doi.org/10.1016/j.neucom.2018.10.014 (2019).
Artikel Google Scholar
Wang, Z., Di, H., Shafiq, MA, Alaudah, Y. & AlRegib, G. Erfolgreicher Einsatz von Bildverarbeitung und maschinellem Lernen bei der seismischen Strukturinterpretation: Ein Überblick. Führen. Kante 37, 451–461. https://doi.org/10.1190/tle37060451.1 (2018).
Artikel Google Scholar
Shorten, C. & Khoshgoftaar, TM Eine Umfrage zur Bilddatenerweiterung für Deep Learning. J. Big Datahttps://doi.org/10.1186/s40537-019-0197-0 (2019).
Artikel Google Scholar
Shinde, PP & Shah, S. Ein Überblick über Anwendungen für maschinelles Lernen und Deep Learning. Im Jahr 2018, Vierte Internationale Konferenz zur Steuerung und Automatisierung von Computerkommunikation (ICCUBEA), 1–6, https://doi.org/10.1109/ICCUBEA.2018.8697857 (2018).
Ronneberger, O., Fischer, P. & Brox, T. U-net: Faltungsnetzwerke für die biomedizinische Bildsegmentierung. In Medical Image Computing and Computer-Assisted Intervention – MICCAI 2015 (Hrsg. Navab, N. et al.) 234–241 (Springer International Publishing, Cham, 2015).
Kapitel Google Scholar
Andersen, A. & Kak, A. Simultane algebraische Rekonstruktionstechnik (SART): Eine überlegene Implementierung des ART-Algorithmus. Ultraschall. Bildgebung 6, 81–94. https://doi.org/10.1016/0161-7346(84)90008-7 (1984).
Artikel CAS PubMed Google Scholar
Bayhaqi, YA, Rauter, G., Navarini, A., Cattin, PC & Zam, A. Schnelle optische Kohärenztomographie-Bildverbesserung mithilfe von Deep Learning für intelligente Laserchirurgie: Vorstudie im Knochengewebe. In Costa, MFPCMM (Hrsg.) Fourth International Conference on Applications of Optics and Photonics, vol. 11207, 210 – 215, https://doi.org/10.1117/12.2527293. Internationale Gesellschaft für Optik und Photonik (SPIE, 2019).
Wang, YD, Armstrong, RT & Mostaghimi, P. Verbesserung der Auflösung digitaler Felsbilder mit hochauflösenden Faltungs-Neuronalen Netzen. J. Benzin. Wissenschaft. Ing. 182, 106261. https://doi.org/10.1016/j.petrol.2019.106261 (2019).
Artikel CAS Google Scholar
Tang, K. et al. Verallgemeinerbarer Rahmen für ungepaarten Domänentransfer und Deep Learning für die Verarbeitung von Echtzeit-Synchrotron-basierten Röntgen-Mikrocomputertomographiebildern komplexer Strukturen. Physik. Rev. Appl. 17, 034048. https://doi.org/10.1103/PhysRevApplied.17.034048 (2022).
Artikel ADS CAS Google Scholar
Hommel, J., Gehring, L., Weinhardt, F., Ruf, M. & Steeb, H. Auswirkungen der enzymatisch induzierten Carbonatfällung auf kapillare Druck-Sättigungs-Beziehungen. Mineralienhttps://doi.org/10.3390/min12101186 (2022).
Artikel Google Scholar
Ruf, M. & Steeb, H. Ein offenes, modulares und flexibles Mikro-Röntgen-Computertomographiesystem für die Forschung. Rev. Sci. Instrument. 91, 113102. https://doi.org/10.1063/5.0019541 (2020).
Artikel ADS CAS PubMed Google Scholar
MATLAB. (R2018a) (The MathWorks Inc., Natick, Massachusetts, 2018).
Çiçek, Ö., Abdulkadir, A., Lienkamp, SS, Brox, T. & Ronneberger, O. 3D U-Net: Lernen einer dichten volumetrischen Segmentierung aus spärlicher Annotation. In Medical Image Computing and Computer-Assisted Intervention – MICCAI 2016 (Hrsg. Ourselin, S. et al.) 424–432 (Springer International Publishing, Cham, 2016).
Kapitel Google Scholar
Zhou, X. & Yang, G. Normalisierung beim Training tiefer Faltungs-Neuronalnetze für die biomedizinische semantische 2D-Segmentierung. AdRR (2018). Vorabdruck unter arXiv:1809.03783.
Minaee, S. et al. Bildsegmentierung mittels Deep Learning: Eine Umfrage. AdRR (2020). Vorabdruck unter arXiv:2001.05566.
Kingma, DP & Ba, J. Adam: Eine Methode zur stochastischen Optimierung. AdRR (2017). Vorabdruck unter arXiv:1412.6980v9.
Otsu, N. Eine Schwellenwertauswahlmethode aus Graustufenhistogrammen. IEEE Trans. Syst. Mann Cybern. 9, 62–66. https://doi.org/10.1109/TSMC.1979.4310076 (1979).
Artikel Google Scholar
Bengio, Y. Praktische Empfehlungen für das gradientenbasierte Training tiefer Architekturen. In Montavon, GB, Grégoire und Orr & Müller, K.-R. (Hrsg.) Neural Networks: Tricks of the Trade: Second Edition, 437–478, https://doi.org/10.1007/978-3-642-35289-8_26 (Springer Berlin Heidelberg, Berlin, Heidelberg, 2012).
Goodfellow, I. et al. Generative gegnerische Netze. In Fortschritte in neuronalen Informationsverarbeitungssystemen, 2672–2680 (2014).
Gilbert, P. Iterative Methoden zur dreidimensionalen Rekonstruktion eines Objekts aus Projektionen. J. Theor. Biol. 36, 105–117 (1972).
Artikel ADS CAS PubMed Google Scholar
Rodriguez-Blanco, JD, Shaw, S. & Benning, LG Die Kinetik und Mechanismen der Kristallisation von amorphem Calciumcarbonat (acc) zu Calcit, Viavaterit. Nanoskala 3, 265–271. https://doi.org/10.1039/C0NR00589D (2011).
Artikel ADS CAS PubMed Google Scholar
Rodriguez-Navarro, C., Kudıacz, K., Cizer, Ö. & Ruiz-Agudo, E. Bildung von amorphem Calciumcarbonat und seine Umwandlung in mesostrukturierten Calcit. CrystEngComm 17, 58–72. https://doi.org/10.1039/C4CE01562B (2015).
Artikel CAS Google Scholar
Hommel, J., Cunningham, AB, Helmig, R., Ebigbo, A. & Class, H. Numerische Untersuchung der mikrobiell induzierten Calcitausfällung als Technologie zur Leckageminderung. Energieprocedia 40C, 392–397. https://doi.org/10.1016/j.egypro.2013.08.045 (2013).
Artikel CAS Google Scholar
Phillips, AJ Biofilm-induzierte Calciumcarbonat-Präzipitation: Anwendung im Untergrund (Montana State University, UK, 2013).
Google Scholar
Chen, H. et al. Niedrigdosis-CT über Faltungs-Neuronales Netzwerk. Biomed. Opt. Express 8, 679–694. https://doi.org/10.1364/boe.8.000679 (2017).
Artikel PubMed PubMed Central Google Scholar
Referenzen herunterladen
Diese Arbeit wurde von der Deutschen Forschungsgemeinschaft (DFG) gefördert – Projektnummer 327154368 – SFB1313. Holger Steeb dankt der Deutschen Forschungsgemeinschaft (DFG) für die Unterstützung dieser Arbeit durch die Förderung des EXC 2075-390740016 im Rahmen der Deutschen Exzellenzstrategie. Johannes Hommel dankt der Deutschen Forschungsgemeinschaft (DFG) für die Unterstützung dieser Arbeit durch die Finanzierung des Projekts Nr. 380443677.
Open-Access-Förderung ermöglicht und organisiert durch Projekt DEAL.
Institut für Angewandte Mechanik (CE), Universität Stuttgart, Pfaffenwaldring 7, 70569, Stuttgart, Deutschland
Dongwon Lee & Holger Steeb
Institut für Wasser- und Umweltsystemmodellierung, Universität Stuttgart, Pfaffenwaldring 61, 70569, Stuttgart, Deutschland
Felix Weinhardt, Johannes Hommel & Holger Class
Agrosphere (IBG-3), Institute of Bio- and Geosciences, Forschungszentrum Jülich, 52425, Jülich, Germany
Joseph Piotrowski
SC SimTech, Universität Stuttgart, Pfaffenwaldring 5, 70569, Stuttgart, Deutschland
Holger Steeb
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
DL, FW, HC und HS konzipierten und gestalteten das Experiment. DL, FW, JH und JP führten das Experiment durch. DL, FW und JH analysierten die Versuchsergebnisse. DL hat die Bilddaten nachbearbeitet und analysiert. DL erstellte Software, die in der Arbeit verwendet wurde. DL, FW und JH haben das Hauptmanuskript geschrieben. Alle Autoren haben das Manuskript überprüft.
Korrespondenz mit Dongwon Lee.
Die Autoren geben an, dass keine Interessenkonflikte bestehen.
Springer Nature bleibt neutral hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten.
Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative-Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht durch gesetzliche Vorschriften zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.
Nachdrucke und Genehmigungen
Lee, D., Weinhardt, F., Hommel, J. et al. Maschinelles Lernen trägt dazu bei, die Zeitauflösung der Röntgen-Computertomographie zu erhöhen, die auf die Mineralfällung in porösen Medien angewendet wird. Sci Rep 13, 10529 (2023). https://doi.org/10.1038/s41598-023-37523-0
Zitat herunterladen
Eingegangen: 3. Februar 2023
Angenommen: 22. Juni 2023
Veröffentlicht: 29. Juni 2023
DOI: https://doi.org/10.1038/s41598-023-37523-0
Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:
Leider ist für diesen Artikel derzeit kein Link zum Teilen verfügbar.
Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt
Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.