Diese cleveren Dinge sind derzeit auf Amazon sehr angesagt
Mar 27, 2023GLORIA
Mar 29, 2023Geschäft mit Papiertüten: Wie starte ich ein Geschäft mit der Verpackung von Papiertüten? Zur Finanzierung der Maschinenkosten finden Sie hier einen umfassenden Leitfaden
Mar 31, 2023Die 3 besten Vakuumierer des Jahres 2023
Apr 02, 2023Die beste Nespresso-Maschine (aber nicht jedermanns Sache)
Apr 04, 2023Deep Learning ermöglichte die Volumendarstellung des Ganzen
Nature Communications Band 13, Artikelnummer: 6566 (2022) Diesen Artikel zitieren
6150 Zugriffe
3 Zitate
7 Altmetrisch
Details zu den Metriken
Bei der Strahlentherapie von Krebspatienten ist die Abgrenzung gefährdeter Organe (OARs) und Tumoren ein unverzichtbarer Prozess. Dies ist jedoch der zeitaufwändigste Schritt, da eine manuelle Abgrenzung durch Radioonkologen immer erforderlich ist. Hierin schlagen wir ein leichtes Deep-Learning-Framework für die Strahlentherapie-Behandlungsplanung (RTP) mit dem Namen RTP-Net vor, um eine automatische, schnelle und präzise Initialisierung von Ganzkörper-OARs und Tumoren zu fördern. Kurz gesagt implementiert das Framework eine Kaskadensegmentierung von grob nach fein mit einem adaptiven Modul für kleine und große Organe sowie Aufmerksamkeitsmechanismen für Organe und Grenzen. Unsere Experimente zeigen drei Vorzüge: 1) Umfangreiche Auswertung von 67 Abgrenzungsaufgaben anhand eines umfangreichen Datensatzes von 28.581 Fällen; 2) Zeigt eine vergleichbare oder überlegene Genauigkeit mit einem durchschnittlichen Würfel von 0,95; 3) Erreicht bei den meisten Aufgaben eine Abgrenzung nahezu in Echtzeit mit <2 s. Dieser Rahmen könnte genutzt werden, um den Konturierungsprozess im All-in-One-Strahlentherapieschema zu beschleunigen und so die Bearbeitungszeit der Patienten erheblich zu verkürzen.
Krebs gilt als eine der größten Krankheitslasten mit weltweit rasch steigender Morbidität und Mortalität1,2,3. Es wird geschätzt, dass es im Jahr 2040 28,4 Millionen neue Krebsfälle geben wird, was einem Anstieg von 47,2 % gegenüber den entsprechenden 19,3 Millionen neuen Krebsfällen im Jahr 2020 entspricht. Strahlentherapie (RT) wird als grundlegend kurative oder palliative Behandlung von Krebs eingesetzt, wobei etwa 50 % der Krebspatienten, die Vorteile von RT erhalten4,5,6. Angesichts der Tatsache, dass hochenergetische Strahlung das genetische Material sowohl von Krebszellen als auch von normalen Zellen schädigen kann, ist es wichtig, die Wirksamkeit und Sicherheit der RT abzuwägen, die stark von der Dosisverteilung der Bestrahlung sowie dem Funktionsstatus der Organe abhängt -Risiko (OARs)6,7,8,9. Eine genaue Abgrenzung von Tumoren und OARs kann die Ergebnisse der RT direkt beeinflussen, da eine ungenaue Abgrenzung zu Über- oder Unterdosierungsproblemen führen und das Risiko von Toxizitäten erhöhen oder die Wirksamkeit von Tumoren verringern kann. Um dem Zieltumor eine bestimmte Dosis zuzuführen und gleichzeitig die OARs zu schützen, ist daher eine genaue Segmentierung dringend erforderlich.
Der routinemäßige klinische RT-Workflow kann in vier Schritte unterteilt werden, darunter (1) CT-Bildaufnahme und Erstdiagnose, (2) Strahlentherapie-Behandlungsplanung (RTP), (3) Strahlenabgabe und (4) Nachsorge. Dies wird von einem Team aus medizinischen Fachkräften geleitet, beispielsweise Radioonkologen, medizinischen Dosimetristen, Strahlentherapeuten usw.10,11. Im Allgemeinen wird die Konturierung von OARs und Zieltumoren im RTP-Stadium manuell von Radioonkologen und Dosimetristen durchgeführt. Beachten Sie, dass die Reproduzierbarkeit und Konsistenz der manuellen Segmentierung aufgrund der Variabilität innerhalb und zwischen Beobachtern eine Herausforderung darstellt12. Außerdem ist der manuelle Prozess sehr zeitaufwändig und nimmt oft Stunden oder sogar Tage pro Patient in Anspruch, was zu erheblichen Verzögerungen bei der RT-Behandlung führt12,13. Daher ist es wünschenswert, einen schnellen Segmentierungsansatz zu entwickeln, um eine genaue und konsistente Abgrenzung sowohl für OARs als auch für Zieltumoren zu erreichen.
In jüngster Zeit hat die auf Deep Learning basierende Segmentierung ein enormes Potenzial für die Bereitstellung genauer und konsistenter Ergebnisse gezeigt10,11,14,15,16 im Vergleich zu den meisten Klassifizierungs- und Regressionsansätzen, wie z. B. atlasbasierter Konturierung, statistischer Formmodellierung usw.17 ,18,19,20. Die beliebteste Architektur sind Convolutional Neural Networks (CNNs)21,22,23, darunter U-Net24,25, V-Net26 und nnU-Net27, die im Medical Image Decathlon Segmentation Competition eine hervorragende Leistung erzielen. Darüber hinaus haben auch andere Hybridalgorithmen eine hervorragende Segmentierungsleistung gezeigt28,29,30, z. B. Swin UNETR31. Allerdings benötigen Deep-Learning-basierte Algorithmen spezielle Rechenressourcen wie den Speicher der Grafikverarbeitungseinheit (GPU), insbesondere für die 3D-Bildverarbeitung13, was zu begrenzten klinischen Anwendungen in der Praxis führt.
Um die oben genannten Herausforderungen zu bewältigen, schlagen wir hier ein leichtes automatisches Segmentierungsframework namens RTP-Net vor, um die Verarbeitungszeit für die Konturierung von OARs und Zieltumoren erheblich zu verkürzen und gleichzeitig eine vergleichbare oder bessere Leistung mit den modernsten Methoden zu erzielen . Beachten Sie, dass dieses Framework möglicherweise im kürzlich aufkommenden All-in-One-RT-Schema verwendet werden kann (Abb. 1). All-in-One RT zielt darauf ab, den Patienten einen Service aus einer Hand zu bieten, indem das CT-Scannen, die Konturierung, die dosimetrische Planung und die bildgeführte In-situ-Strahlabgabe in einem Besuch integriert werden. In diesem Prozess könnte der Konturierungsschritt durch den Algorithmus der künstlichen Intelligenz (KI) von Stunden auf Sekunden beschleunigt werden, gefolgt von einer Untersuchung durch einen Onkologen mit minimalen erforderlichen Modifikationen, was die Effizienz erheblich verbessern und den Prozess in der Planungsphase beschleunigen kann (Abb. 1a). . Mit der Entwicklung der RT-Linac-Plattform und der Integration multifunktionaler Module (z. B. schnelle Konturierung, automatische Planung und Strahlenabgabe) kann der All-in-One RT den gesamten RT-Prozess von Tagen auf Minuten verkürzen32 ( Abb. 1b).
a Die Prozessübersicht von konventioneller RT vs. KI-beschleunigter All-in-One RT. Der RT-Workflow kann in vier Schritte unterteilt werden, in denen der Behandlungsplanungsschritt durch KI beschleunigt werden kann. Die konventionelle Behandlungsplanung umfasst die manuelle Konturierung gefährdeter Organe (OARs), des klinischen Zielvolumens (CTV) und des Planungszielvolumens (PTV), gefolgt von den Planungsverfahren. Der Konturierungsschritt kann durch KI-Algorithmen beschleunigt werden, gefolgt von einer Überprüfung durch einen Onkologen mit minimalem Änderungsbedarf. b Die Zeitskalen der Konturierung und des RT-Workflows im herkömmlichen RT bzw. im AI-beschleunigten All-in-One RT. Der Konturierungsschritt kann durch KI von Stunden auf Sekunden beschleunigt werden und der gesamte RT-Prozess kann von Tagen auf Minuten verkürzt werden.
Um die Genauigkeit zu erhöhen und auch Zeit für RTP zu sparen, schlagen wir ein leichtes, auf tiefem Lernen basierendes Segmentierungsframework mit der Bezeichnung RTP-Net vor, wie in Abb. 2 dargestellt, für die automatisierte Konturierung von OARs und Tumoren. Insbesondere zielen drei Strategien darauf ab, (1) eine individuelle Segmentierung für bestimmte OARs zu erzeugen, (2) die GPU-Speicherkosten zu senken und (3) auch eine schnelle und genaue Segmentierung zu erreichen, wie unten beschrieben.
Grob-zu-Fein-Strategie. Dies wird für die schnelle Segmentierung von 3D-Bildern vorgeschlagen, indem ein Modell mit grober Auflösung verwendet wird, um einen minimalen interessierenden Bereich (ROI) zu lokalisieren, der den zu segmentierenden Bereich im Originalbild enthält, und dann ein Modell mit feiner Auflösung verwendet wird Dieser ROI dient als Eingabe, um detaillierte Grenzen der Region zu erhalten (Abb. 2a). Dieser zweistufige Ansatz kann eine große Menge irrelevanter Informationen effektiv ausschließen, Fehlalarme reduzieren und die Segmentierungsgenauigkeit verbessern. Gleichzeitig trägt es dazu bei, die GPU-Speicherkosten zu senken und die Effizienz der Segmentierung zu verbessern. Wir übernehmen hier VB-Net, wie in unserer vorherigen Arbeit33 vorgeschlagen, um eine schnelle und präzise Segmentierung zu erreichen. Es basiert auf der klassischen V-Net-Architektur, also einem Encoder-Decoder-Netzwerk mit Sprungverbindung und Restverbindung, und wurde durch Hinzufügen der Engpassschicht weiter verbessert. Das VB-Net hat den ersten Platz bei der SegTHOR Challenge 2019 (Segmentation of Thoracic Organs at Risk in CT Images) erreicht. Die detaillierten Architektur- und Netzwerkeinstellungen finden Sie in Methoden und Tabelle 1.
Adaptives Eingabemodul. Um sowohl kleine als auch große ROIs zu segmentieren, wird auch ein adaptives Eingabemodul in der VB-Net-Architektur entworfen, indem jeweils eine Downsampling-Schicht und eine Upsampling-Schicht am Anfang und am Ende des VB-Net hinzugefügt werden die Größe des Ziel-ROI (Abb. 2b). Beide Resampling-Vorgänge werden über eine Faltungsschicht implementiert, die die besten Parameter zwischen Prozessen lernen und gleichzeitig den GPU-Speicher reduzieren kann.
Aufmerksamkeitsmechanismen. Zur genauen Abgrenzung des Zielvolumens (PTV/CTV) wurden insbesondere zwei Aufmerksamkeitsmechanismen entwickelt, nämlich die OAR-bewusste Aufmerksamkeitskarte und die grenzenbewusste Aufmerksamkeitskarte (Abb. 2c). Die OAR-bewusste Aufmerksamkeitskarte wird durch die OAR-Segmentierung auf feiner Ebene generiert, während die grenzenbewusste Aufmerksamkeitskarte im PTV/CTV-Begrenzungsrahmen auf grober Ebene angewendet wird. Die OAR-fähige Aufmerksamkeitskarte wird als zusätzliche Einschränkung verwendet, um die Leistung des feinaufgelösten Modells zu verbessern. Insbesondere ist die Eingabe des feinauflösenden Modells die Verkettung des Rohbilds mit seiner OAR-bewussten Aufmerksamkeitskarte und seiner grenzenbewussten Aufmerksamkeitskarte in einer kanalweisen Dimension. Das heißt, beide Aufmerksamkeitsmechanismen (in Kombination mit der mehrdimensionalen adaptiven Verlustfunktion) werden verwendet, um das VB-Netz auf feiner Ebene zu modifizieren.
ein Grob-zu-Fein-Framework mit mehreren Auflösungen für eine schnelle Segmentierung. Ein Modell mit grober Auflösung dient dazu, den interessierenden Bereich (ROI) im Originalbild zu lokalisieren (markiert im roten Feld), und ein Modell mit feiner Auflösung dient dazu, die detaillierten Grenzen des ROI zu verfeinern. b Adaptives VB-Net für OAR-Segmentierung in mehreren Größen, das auch auf große Organe angewendet werden kann. Dies wird erreicht, indem am Anfang bzw. am Ende des VB-Netzes eine gestrittene Faltungsschicht mit einer Schrittweite von 2 (Conv-s2) und eine transponierte Faltungsschicht mit einer Schrittweite von 2 (T-Conv-s2) hinzugefügt werden. c Aufmerksamkeitsmechanismen, die im Segmentierungsrahmen für eine genaue Abgrenzung des Zielvolumens verwendet werden. Die OAR-bewusste Aufmerksamkeitskarte wird durch die OAR-Segmentierung auf feiner Ebene generiert, und die grenzenbewusste Aufmerksamkeitskarte wird durch den Zielvolumen-Begrenzungsrahmen auf grober Ebene generiert. Zwei Aufmerksamkeitskarten in Kombination mit einer mehrdimensionalen adaptiven Verlustfunktion werden verwendet, um das Feinebenenmodell zu modifizieren, um eine genaue Zielabgrenzung zu erhalten.
Zusammenfassend lässt sich sagen, dass das vorgeschlagene RTP-Net-Framework Zielvolumina sowie mehrere OARs auf automatische, genaue und effiziente Weise segmentieren kann, worauf dann eine dosimetrische In-situ-Planung und Strahlentherapie folgen kann, um schließlich All-in-One zu erreichen RT. In unserem entwickelten Segmentierungsframework steht den Benutzern eine Reihe von Parametern zur Anpassung offen, darunter Vorverarbeitungskonfiguration, Trainingsstrategiekonfiguration, Netzwerkarchitektur und Bildinferenzkonfiguration. Unter Berücksichtigung der Vielfalt verschiedener Bildgebungsdatensätze, wie etwa Bildgebungsmodalität, Rekonstruktionskerne, Bildabstände usw., können die Benutzer außerdem eine geeignete Trainingskonfigurationseinstellung für jede spezifische Aufgabe anpassen. Die empfohlene Konfigurationseinstellung unseres Multi-Resolution-Segmentierungsframeworks ist in Tabelle 1 als Referenz zusammengefasst.
Die Segmentierungsleistung des vorgeschlagenen RTP-Net wird hinsichtlich Genauigkeit und Effizienz umfassend an den gesamten Körperorganen, einschließlich insgesamt 65 OARs, verteilt auf Kopf, Brust, Bauch, Beckenhöhle und den gesamten Körper, bewertet. Wichtig ist, dass ein umfangreicher Datensatz von 28.219 Fällen experimentiert wird, von denen 4.833 Fälle als Testsatz (~ 17 %) verwendet werden und die übrigen Fälle als Trainingssatz dienen (ergänzende Abbildung 1).
Die Genauigkeit der Segmentierung wird durch den Dice-Koeffizienten quantifiziert, der zwischen 0 und 1 liegt, wobei ein Dice-Koeffizient von 1 eine perfekte Überlappung zwischen dem segmentierten Ergebnis und seiner Grundwahrheit darstellt. Wie in Abb. 3 und der Ergänzungstabelle 1 gezeigt, werden die Dice-Koeffizienten automatischer Segmentierungen für einen Satz von OARs gemessen. Insgesamt führen wir 65 Segmentierungsaufgaben durch, darunter 27 OARs im Kopfteil, 16 OARs im Brustteil, 10 OARs im Bauchteil, 9 OARs im Beckenhöhlenteil und 3 OARs im gesamten Körper. Es ist erwähnenswert, dass das RTP-Net bei 65 Aufgaben mit umfangreichen Stichproben einen durchschnittlichen Dice von 0,93 ± 0,11 erreicht. Insbesondere erzielen 42 von 65 (64,6 %) OARs-Segmentierungsaufgaben eine zufriedenstellende Leistung mit einem durchschnittlichen Dice von über 0,90 und 57 von 65 (87,7 %) OARs-Segmentierungsaufgaben mit einem durchschnittlichen Dice von über 0,80. Für OARs im Kopf (Abb. 3a) gibt es 20 von 27 (74,1 %) OARs-Segmentierungsaufgaben, die eine plausible Leistung mit einem durchschnittlichen Dice von über 0,80 erzielen. Bei OARs in der Brust (Abb. 3b) wird die niedrigste Segmentierungsleistung in den mediastinalen Lymphknoten mit einem mittleren Dice von 0,61 gefunden, was möglicherweise auf ihre diffusen und verschwommenen Grenzen zurückzuführen ist. Darüber hinaus liegen die Dice-Segmentierungskoeffizienten aller getesteten OARs im Bauch- (Abb. 3c) und Beckenhöhlenbereich (Abb. 3d) über 0,80. Darüber hinaus erzielen auch Segmentierungen des Rückenmarks, des Wirbelkanals und der äußeren Haut am gesamten Körper eine bessere Übereinstimmung mit der manuellen Grundwahrheit. Beachten Sie, dass die Segmentierung der Außenhaut aufgrund seiner Größe durch das adaptive Eingabemodul im RTP-Net (Abb. 2b) unterstützt wird. Zusammenfassend lässt sich sagen, dass die meisten Segmentierungsaufgaben durch die Verwendung des vorgeschlagenen RTP-Net eine hohe Genauigkeit erreichen, was seine überlegene Segmentierungsleistung bestätigt. Es sollte dargelegt werden, dass die Ergebnisse der automatischen Segmentierung vom Radioonkologen überprüft und geändert werden, um die Genauigkeit und Sicherheit der RT sicherzustellen.
Die Würfelkoeffizienten bei der Segmentierung von OARs in den Teilen Kopf (a), Brust (b), Bauch (c) sowie denen im Beckenhöhlenteil und im gesamten Körper (d). Die Schatten in vier Box-and-Whisker-Diagrammen geben die Würfelkoeffizienten mit einem Bereich von 0,8 bis 1,0 an. Das erste Quartil bildet den unteren und das dritte Quartil den oberen Rand des Kastens, in dem die Linie und das Pluszeichen den Median bzw. den Mittelwert darstellen. Die Whiskers reichen vom 2,5. bis zum 97,5. Perzentil und Punkte unterhalb und oberhalb der Whiskers werden als einzelne Punkte gezeichnet. Die detaillierte Nummer für jedes Organ kann der ergänzenden Abbildung 1 entnommen werden.
Um die Segmentierungsqualität und -effizienz unseres vorgeschlagenen RTP-Net vollständig zu bewerten, werden drei hochmoderne Methoden, darunter U-Net, nnU-Net und Swin UNETR, zum Vergleich einbezogen. Typische Segmentierungsergebnisse von acht OARs (einschließlich Gehirn, Hirnstamm, Rippe, Herz, Leber, Becken, Rektum und Blase) nach vier Methoden sind in Abb. 4 zum qualitativen Vergleich dargestellt. Es ist ersichtlich, dass unser RTP-Net mit manueller Ground Truth in allen acht OARs konsistente Segmentierungen erreicht, während die Vergleichsmethoden Über- oder Untersegmentierungen zeigen. Insbesondere untersegmentieren sowohl U-Net als auch nnU-Net vier OARs wie Hirnstamm, Rippe, Herz und Becken (Abb. 4a–d), während sie zwei OARs wie Leber und Blase übersegmentieren (Abb. 4e, F). Für die verbleibenden zwei OARs wie Gehirn und Rektum (Abb. 4g, h) zeigen U-Net und nnU-Net unterschiedliche Leistungen, wobei U-Net eine Untersegmentierung aufweist, während nnU-Net eine Übersegmentierung aufweist. Swin UNETR erreicht konsistente Segmentierungen mit manueller Grundwahrheit in der Blase und im Gehirn, während es in den anderen sechs OARs Untersegmentierungen gibt. Es muss noch einmal betont werden, dass die ungenaue Segmentierung von OARs die nachfolgenden Schritte der Zieltumorabgrenzung und Behandlungsplanung und schließlich die genaue Strahlentherapie des Tumors beeinflussen kann. Insgesamt erzielt unser vorgeschlagenes RTP-Net im Vergleich zu U-Net, nnU-Net und Swin UNETR vergleichbare oder bessere Ergebnisse bei der Segmentierung von OARs.
Die Segmentierung wird an acht OARs durchgeführt, d. h. (a) Hirnstamm, (b) Rippe, (c) Herz, (d) Becken, (e) Leber, (f) Blase, (g) Gehirn und (h) Rektum. Die weißen Kreise zeigen eine genaue Segmentierung im Vergleich zur manuellen Grundwahrheit durch vier Methoden an. Die blauen und gelben Kreise stehen für Untersegmentierung bzw. Übersegmentierung.
Um die Segmentierungsleistung von RTP-Net quantitativ zu bewerten, werden sowohl der Dice-Koeffizient als auch die durchschnittliche Inferenzzeit berechnet. Abbildung 5a und Ergänzungstabelle 2 zeigen Dice-Koeffizienten für eine Reihe von Segmentierungsaufgaben mit vier Methoden. Es ist ersichtlich, dass die meisten Segmentierungsaufgaben hohe Dice-Koeffizienten ergeben, insbesondere bei der Segmentierung von Gehirn, Leber und Becken mit relativ geringer Variation. Im Vergleich zu nnU-Net zeigt RTP-Net keinen signifikanten Unterschied in der Segmentierung der meisten Organe im Hinblick auf den Dice-Koeffizienten, mit Ausnahme des Rektums. Im Vergleich zu U-Net zeigt RTP-Net hingegen einen signifikanten Unterschied in der besseren Segmentierung von Hirnstamm, Leber und Rektum. Außerdem zeigt RTP-Net im Vergleich zu Swin UNETR eine bessere Leistung bei der Segmentierung von Hirnstamm, Herz, Leber und Rektum. Insgesamt betragen die durchschnittlichen Dice-Koeffizienten von RTP-Net, U-Net, nnU-Net und Swin UNETR bei der Segmentierung von acht OARs 0,95 ± 0,03, 0,91 ± 0,06, 0,95 ± 0,03 bzw. 0,94 ± 0,03. Die Ergebnisse zeigen, dass RTP-Net eine vergleichbare oder genauere Segmentierungsleistung als andere Methoden erzielt, was mit den visuellen Ergebnissen in Abb. 4 übereinstimmt.
a Würfelkoeffizienten von acht Segmentierungsaufgaben durch unser vorgeschlagenes RTP-Net, U-Net, nnU-Net und Swin UNETR. b Mittlere Inferenzzeiten bei der Segmentierung von acht OARs mit vier Methoden. Sowohl die Dice-Koeffizienten (a) als auch die Inferenzzeiten (b) werden in Box-and-Whisker-Diagrammen angezeigt. Das erste Quartil bildet den unteren und das dritte Quartil den oberen Rand des Kastens, in dem die Linie und das Pluszeichen den Median bzw. den Mittelwert darstellen. Die Whiskers reichen vom 2,5. bis zum 97,5. Perzentil und Punkte unterhalb und oberhalb der Whiskers werden als einzelne Punkte gezeichnet. Die Anzahl der acht Organe kann der ergänzenden Abbildung 1 entnommen werden. Statistische Analysen in (a) und (b) werden unter Verwendung einer Zwei-Wege-ANOVA gefolgt von Dunnetts Mehrfachvergleichstests durchgeführt. Das Sternchen stellt einen zweiseitig angepassten p-Wert dar, wobei * für p < 0,05, ** für p < 0,01 und *** für p < 0,001 steht. Die p-Werte der Würfelkoeffizienten in (a) zwischen RTP-Net und anderen drei Methoden (U-Net, nnU-Net und Swin UNETR) betragen 0,596, 0,999 bzw. 0,965 für die Gehirnsegmentierung; <0,001, 0,234 bzw. 0,001 für die Hirnstammsegmentierung; 0,206, 0,181 bzw. 0,183 für die Rippensegmentierung; 0,367, 0,986 bzw. 0,010 für die Herzsegmentierung; 0,002, 0,999 bzw. 0,003 für die Lebersegmentierung; 0,991, 0,900 bzw. 0,803 für die Beckensegmentierung; <0,001, 0,010 bzw. 0,003 für die Rektumsegmentierung; 0,999, 0,827 bzw. 0,932 für die Blasensegmentierung. Alle p-Werte in (b) zwischen RTP-Net und anderen drei Methoden in acht Organen liegen unter 0,001. c Die Wärmekarte der mittleren Inferenzzeiten in mehreren Segmentierungsaufgaben. Das Sternchen stellt den in (b) erhaltenen zweiseitigen angepassten p-Wert dar, wobei *** p < 0,001 angibt und die statistische Signifikanz zwischen RTP-Net und den anderen drei Methoden zeigt.
Darüber hinaus wird die Inferenzeffizienz von vier Methoden in den oben genannten acht OAR-Segmentierungsaufgaben in Abb. 5b, c und Ergänzungstabelle 3 weiter bewertet. Als leichtes Framework benötigt RTP-Net bei den meisten Segmentierungsaufgaben weniger als 2 s, während U -Net, nnU-Net und Swin UNETR benötigen jeweils 40–200 s, 200–2000 s und 15–200 s. Die Heatmap der Inferenzzeit von vier Methoden in Segmentierungsaufgaben zeigt visuell einen signifikanten Unterschied zwischen RTP-Net und den anderen drei Methoden. Die ultrahohe Segmentierungsgeschwindigkeit von RTP-Net ist auf das angepasste Grob-zu-Fein-Framework mit mehreren Auflösungen zurückzuführen, das die Groblokalisierung und Feinsegmentierung nacheinander durchführt und außerdem die GPU-Speicherkosten erheblich senkt. Darüber hinaus wird die hocheffiziente Segmentierungsfähigkeit von RTP-Net auch in weiteren Abgrenzungsexperimenten bestätigt, wie in der ergänzenden Abbildung 2 gezeigt. Daher kann unser vorgeschlagenes RTP-Net eine hervorragende Segmentierungsleistung mit überlegener Genauigkeit und ultrahoher Inferenzgeschwindigkeit erzielen .
Bei einem eingegebenen 3D-Bild müssen wir alle vorhandenen OARs (ob vollständig oder teilweise) gemeinsam segmentieren, z. B. zur Abgrenzung des Zielvolumens, einschließlich CTV und PTV. Abbildung 6 zeigt die Segmentierungsergebnisse mehrerer Organe in jedem spezifischen Teil, einschließlich Kopf, Brust, Bauch und Beckenhöhle. Diese Ergebnisse bestätigen die Leistung unseres RTP-Net weiter.
a Gehirn, Schläfenlappen, Augen, Zähne, Ohrspeicheldrüse, Unterkieferknochen, Kehlkopf, Plexus brachialis; (b) Gehirn, Hirnstamm; (c) Herz, Luftröhre, Rippe, Wirbel; (d) Lungen; (e) Leber, Niere, Bauchspeicheldrüse, Gallenblase; (f) Magen, Speiseröhre, Milz; (g) Dickdarm, Dünndarm, Blase; (h) Femurkopf, Knochenbecken; (i) Hoden, Prostata. Bei allen Proben handelt es sich um CT-Bilder. In jedem Beispiel zeigt die linke Seite die Ergebnisse in einer 2D-Ansicht und die rechte Seite zeigt die 3D-Darstellung segmentierter OARs.
Als nächstes bewerten wir die Leistung des Zielvolumenabgrenzungsmodells (Abb. 2c), um die Zielvolumina, einschließlich CTV und PTV, zu konturieren. In der herkömmlichen klinischen Routine wird der PTV im Allgemeinen durch Dilatation des CTV nach spezifischen Richtlinien erreicht. Wenn man bedenkt, dass die herkömmlichen erweiterten PTV in der Regel mit einer bestimmten Software generiert werden und einige Fehler enthalten können (z. B. Überschreitung der Haut oder Überlappung mit OARs), die manuelle Korrekturen erfordern, kann ein automatisch generiertes PTV von RTP-Net recht praktisch sein und Verarbeitungszeit sparen und weisen eine hohe Präzision mit verifizierten Anmerkungen von Radioonkologen auf. Die Abgrenzungsergebnisse von CTV und PTV für Rektumkarzinom sind in Abb. 7 und Ergänzungstabelle 4 unter Verwendung eines visuellen Vergleichs, von Genauigkeit und Effizienz dargestellt. Wie in Abb. 7a dargestellt, zeigt die CTV-Abgrenzung des RTP-Netzes im Vergleich zur manuellen Grundwahrheit eine hohe Leistung. Darüber hinaus gibt es keinen signifikanten Unterschied hinsichtlich des Dice-Koeffizienten zwischen den vier Segmentierungsmethoden (Abb. 7b). Beim Vergleich der mittleren Inferenzzeit der CTV-Abgrenzung erreicht RTP-Net jedoch die schnellste Abgrenzung mit weniger als 0,5 s (0,40 ± 0,05 s), während U-Net, nnU-Net und Swin UNETR 108,41 ± 19,38 s bzw. 248,43 benötigen ± 70,38 s bzw. 62,63 ± 12,49 s (Abb. 7c). Ein ähnliches Ergebnis wird auch für die PTV-Abgrenzungsaufgabe gefunden, bei der die Inferenzzeiten von RTP-Net, U-Net, nnU-Net und Swin UNETR 0,44 ± 0,05 s, 109,89 ± 19,61 s, 119,01 ± 34,06 s und betragen 92,65 ± 16,03 s. Alle diese Ergebnisse (zu CTV und PTV) bestätigen, dass das vorgeschlagene RTP-Net das Zielvolumen (einschließlich CTV und PTV) präzise und schnell konturieren kann. Die Segmentierungsergebnisse der OARs sowie des Zieltumors sind in Abb. 7d zu sehen, in der das PTV von Rektumkarzinom abgegrenzt und von nahegelegenen OARs wie Beuteldarm, Becken und Wirbel umgeben ist. Beachten Sie, dass in unserer Methode die grenzenbewusste Aufmerksamkeitskarte übernommen wird, um Segmentierungsfehler der oberen und unteren Grenzen des Zielvolumens zu vermeiden, indem die umgebenden OARs und ihre Grenzen in unserem Zielvolumen-Abgrenzungsmodell berücksichtigt werden. Dies könnte die Toxizität der Strahlung für normale Organe vermeiden und die folgende Dosissimulation und Behandlung präziser machen.
a Abgrenzungsergebnisse des klinischen Zielvolumens (CTV) und des Planungszielvolumens (PTV) durch das vorgeschlagene RTP-Net, U-Net, nnU-Net und Swin UNETR, gekennzeichnet durch rote Farbe. (b) Dice-Koeffizienten und (c) Inferenzzeiten von vier Methoden zur Zielvolumenabgrenzung, dargestellt in Box-and-Whisker-Diagrammen. Das erste Quartil bildet den unteren und das dritte Quartil den oberen Rand des Kastens, in dem die Linie und das Pluszeichen den Median bzw. den Mittelwert darstellen. Die Whisker reichen vom Minimum bis zum Maximum und zeigen alle Punkte an. Die statistischen Analysen in (b) und (c) werden unter Verwendung einer Zwei-Wege-ANOVA gefolgt von Dunnetts Mehrfachvergleichstests mit n = 10 Wiederholungen pro Bedingung durchgeführt. Die zweiseitig angepassten p-Werte der Dice-Koeffizienten in (b) zwischen RTP-Net und anderen drei Methoden (U-Net, nnU-Net und Swin UNETR) betragen 0,420, 0,999 bzw. 0,166 für die CTV-Segmentierung, während sie 0,951 betragen , 0,859 bzw. 0,832 für die PTV-Segmentierung. Alle zweiseitig angepassten p-Werte der Inferenzzeiten in (c) zwischen RTP-Net und den anderen drei Methoden liegen unter 0,001, angegeben mit ***. (d) Übersicht über die Organe-at-Risk (OARs) und Zielvolumina. Die Segmentierungsergebnisse von PTV und benachbartem Beuteldarm, Wirbel und Becken sind jeweils in Rot, Grün, Rosa und Blau markiert.
Bisher haben wir gezeigt, dass das vorgeschlagene, auf Deep Learning basierende Segmentierungsframework die OARs und Zielvolumina automatisch, effizient und genau abgrenzen kann. Es gibt mehrere KI-basierte Softwaretools, die im Handel erhältlich sind und in klinischen Praxen zur Standardisierung und Beschleunigung der RT-Verfahren eingesetzt werden. Dazu gehören ein atlasbasiertes Konturierungstool für die automatische Segmentierung12,34,35,36,37 und ein wissensbasiertes Planungsmodul für die automatische Behandlungsplanung38,39,40. Hier konzentrieren wir uns auf die Erforschung der KI-basierten automatischen Segmentierung von Zielvolumina und deren Integration in RT-Workflows. Berichten zufolge haben diese KI-Lösungen hinsichtlich der Segmentierungsgenauigkeit eine mit manuellen Abgrenzungen vergleichbare Leistung erzielt, wobei nur geringer Bearbeitungsaufwand erforderlich war12,35. Die meisten Studien wurden jedoch nur an begrenzten Organen und Daten mit spezifischen Erfassungsprotokollen ausgewertet, was ihre klinische Anwendbarkeit bei Verwendung in verschiedenen Krankenhäusern oder für unterschiedliche Zielvolumina beeinträchtigt. Zwei Studien haben versucht, diese Herausforderung anzugehen, um die Generalisierbarkeit des Modells zu verbessern41,42. Nikolov et al. wendete 3D U-Net an, um 21 OARs in Kopf- und Hals-CT-Scans abzugrenzen, und erzielte eine Leistung auf Expertenniveau41. Die Studie wurde mit dem Trainingssatz (663 Scans) und dem Testsatz (21 Scans) aus der klinischen Routinepraxis sowie dem Validierungssatz (39 Scans) aus zwei unterschiedlichen Open-Source-Datensätzen durchgeführt. Oktay et al. integrierte das KI-Modell in den bestehenden RT-Workflow und zeigte, dass das KI-Modell die Konturierungszeit verkürzen und gleichzeitig klinisch gültige Strukturkonturen sowohl für die Prostata- als auch für die Kopf-Hals-RT-Planung liefern konnte42. Ihre Studie umfasste 6 OARs für Prostatakrebs und 9 OARs für Kopf-Hals-Krebs, wobei Experimente mit einer Reihe von 519 Becken- und 242 Kopf-Hals-CT-Scans durchgeführt wurden, die an acht verschiedenen klinischen Standorten mit heterogenen und vielfältigen Bevölkerungsgruppen aufgenommen wurden Bildaufnahmeprotokolle. Im Gegensatz zu früheren Arbeiten bewerten wir, wie RTP-Net zu einer allgemeinen Leistung führen kann, indem wir 67 Zielvolumina mit unterschiedlichen Volumengrößen anhand eines umfangreichen Datensatzes von 28.581 Fällen umfassend auswerten (ergänzende Abbildung 1). Dieser umfangreiche Datensatz wurde aus acht verschiedenen öffentlich zugänglichen Datensätzen und einem lokalen Datensatz mit unterschiedlichen Erfassungseinstellungen und demografischen Merkmalen gewonnen (Ergänzungstabelle 5). Unser vorgeschlagenes Modell demonstriert die Generalisierbarkeit der Leistung über Krankenhäuser und Zielvolumina hinweg und erzielt gleichzeitig ein höheres Maß an Übereinstimmung mit Expertenkonturen sowie Zeiteinsparungen, was den Einsatz an klinischen Standorten erleichtern kann.
Darüber hinaus wurden verschiedene Deep-Learning-basierte Algorithmen entwickelt, um die optimale Dosisverteilung automatisch vorherzusagen und die Dosisberechnung zu beschleunigen43,44. Es wird spekuliert, dass die Integration der KI-gestützten Abgrenzung und der KI-gestützten dosimetrischen Planung in das RTP-System die Effizienz der RT erheblich steigern und die Arbeitsbelastung in der klinischen Praxis verringern würde, wie z. B. Pinnacle3 (Philips Medical Systems, Madison, WI)45. Das vorgeschlagene RTP-Net wurde in das CT-Linac-System integriert (das derzeit für die Zulassung zur klinischen Verwendung getestet wird) und unterstützt das All-in-One-RT-Schema, bei dem die Ergebnisse der automatischen Konturierung (von Radioonkologen überprüft) für die Dosimetrie verwendet werden Behandlungsplanung, um die an den Tumor abgegebene Dosis zu maximieren und gleichzeitig die Dosis an die umgebenden OARs zu minimieren. Dieser KI-beschleunigte All-in-One-RT-Workflow hat zwei potenzielle Vorteile: (1) KI-beschleunigte automatische Konturierung könnte systematische und subjektive Abweichungen beseitigen und eine reproduzierbare und präzise Entscheidung gewährleisten, wobei die Konturierungszeit innerhalb von 15 s gesteuert wird, was viel kürzer ist als bei der herkömmlichen Konturierung mit 1–3 Stunden oder mehr, daher ist die Gesamtzeit für die automatische Konturierung und manuelle Bearbeitung durch Kliniker viel kürzer als für die manuelle Annotation von Grund auf; (2) Die All-in-One-RT-Pipeline würde aus einer Hand erfolgen, mehrere Module (z. B. Autokonturierung) integrieren und den Patienten mehrere Wartezeiten ersparen, wodurch sich die Zeit des gesamten Prozesses von Tagen auf erheblich verkürzen würde Minuten32. Wichtig ist, dass mehrere klinische Schritte im All-in-One-RT-Workflow menschliches Eingreifen und die Anwesenheit von engagiertem Personal (einschließlich Strahlenonkologe, Dosimeter und Medizinphysiker) erfordern, um Entscheidungen zu treffen. Daher besteht ein dringender Bedarf, die Effizienz zu verbessern und Einsparungen zu erzielen die Bearbeitungszeit. Darüber hinaus gibt es in einigen klinischen Szenarien mehr Patienten, als ein Krankenhaus aufnehmen könnte, da die medizinischen Ressourcen (z. B. RT-Ausrüstung und Fachpersonal) relativ unzureichend sind. In diesen Fällen birgt der KI-beschleunigte All-in-One-RT-Workflow großes Potenzial zur Reduzierung der Gesundheitsbelastung und zum Nutzen der Patienten.
Um die Einschränkungen der manuellen Konturierung im RTP-System, wie z. B. lange Wartezeit, geringe Reproduzierbarkeit und geringe Konsistenz, zu überwinden, haben wir abschließend ein auf Deep Learning basierendes Framework (RTP-Net) für die automatische Konturierung des Zieltumors und der OARs entwickelt eine präzise und effiziente Art und Weise. Zunächst entwickeln wir ein Grob-zu-Fein-Framework, um den GPU-Speicher zu verringern und die Segmentierungsgeschwindigkeit zu verbessern, ohne die Genauigkeit basierend auf einem großen Datensatz zu verringern. Als nächstes erreicht unser vorgeschlagenes RTP-Net durch die Neugestaltung der Architektur eine hohe Effizienz mit vergleichbarer oder überlegener Segmentierungsleistung auf mehreren OARs im Vergleich zu den hochmodernen Segmentierungs-Frameworks (z. B. U-Net, nnU-Net, Swin UNETR). ). Drittens werden zur genauen Abgrenzung der Zielvolumina (CTV/PTV) die OAR-bewusste Aufmerksamkeitskarte, die grenzenbewusste Aufmerksamkeitskarte sowie die mehrdimensionale Verlustfunktion in das Training des Netzwerks integriert, um die Grenzsegmentierung zu erleichtern. Dieses vorgeschlagene Segmentierungs-Framework wurde in ein CT-Linac-System integriert und wird derzeit auf die Zulassung für den klinischen Einsatz getestet32. Und dieser KI-beschleunigte All-in-One-RT-Workflow birgt großes Potenzial für die Verbesserung der Effizienz, Reproduzierbarkeit und Gesamtqualität der RT für Krebspatienten.
Diese Studie wurde von der Forschungsethikkommission des Fudan University Shanghai Cancer Center, Shanghai, China, genehmigt (Nr. 2201250-16). Insgesamt wurden 362 Bilder von Rektumkarzinomen gesammelt. Aufgrund des retrospektiven Charakters der Studie wurde auf eine schriftliche Einverständniserklärung verzichtet. Die restlichen 28.219 Daten in Experimenten stammten aus öffentlich zugänglichen multizentrischen Datensätzen (aufgelistet in der Ergänzungstabelle 5), d. h. The Cancer Imaging Archive (TCIA, https://www.cancerimagingarchive.net/)46, Head and Neck (HaN) Autosegmetation Challenge 2015 der Medical Image Computing and Computer Assisted Intervention Society (MICCAI)47,48, Segmentation of Thoracic Organs at Risk in CT Images (SegTHOR) Challenge 201949, Combined (CT-MR) Healthy Abdominal Organ Segmentation (CHAOS) Challenge 201950, Medical Segmentation Decathlon (MSD) Challenge von MICCAI 201851 und Lung Nodule Analysis (LUNA) 201652. Alle CT-Bilder waren nicht kontrastverstärkt.
In der Ergänzungstabelle 5 sind die Scannertypen und Erfassungsprotokolle zusammengefasst. Die Patientendaten sind in der Ergänzungstabelle 6 aufgeführt. Weitere Einzelheiten zu den Datensätzen finden Sie in den entsprechenden Referenzen.
In diese Studie beziehen wir insgesamt 28.581 Fälle für 67 Segmentierungsaufgaben ein, die Ganzkörperorgane und Zieltumoren abdecken (ergänzende Abbildung 1). In allen Daten werden 23.728 Fälle als Trainingssatz (~83 %) und die restlichen 4.853 Fälle als Testsatz (~17 %) verwendet.
Die Grundwahrheit der Segmentierung wird aus manuellen Abgrenzungen erfahrener Bewerter ermittelt. Die Einzelheiten werden wie folgt beschrieben:
Bilddatenaufbereitung. In dieser Studie werden großformatige Bilder aus mehreren unterschiedlichen Datensätzen verwendet (z. B. unterschiedliche Scannertypen, Populationen und medizinische Zentren), um die mögliche Stichprobenverzerrung zu verringern. Alle CT-Bilder liegen im DICOM- oder NIFIT-Format vor.
Anmerkungswerkzeuge. Basierend auf den Präferenzen der Bewerter werden mehrere weit verbreitete Tools übernommen, um das Ziel auf Pixelebene zu kommentieren und zu visualisieren, z. B. ITK-SNAP 3.8.0 (http://www.itksnap.org/pmwiki/pmwiki.php). und 3D Slicer 5.0.2 (https://www.slicer.org/). Diese Tools unterstützen sowohl halbautomatische als auch manuelle Anmerkungen. Die halbautomatische Annotation kann zur Annotationsinitialisierung und anschließenden manuellen Korrektur verwendet werden. Diese Strategie kann den Annotationsaufwand einsparen.
Konturierungsprotokoll. Für jede Anmerkungsaufgabe sind erfahrene Gutachter und ein leitender Radioonkologe beteiligt. Die entsprechenden Konsensrichtlinien (z. B. RTOG-Richtlinien) oder Anatomielehrbücher werden überprüft und nach Diskussion ein spezifisches Konturierungsprotokoll erstellt. Anmerkungen werden zunächst von erfahrenen Gutachtern konturiert und schließlich vom leitenden Radioonkologen verfeinert und genehmigt. Nachfolgend listen wir die Konsensrichtlinien auf.
Insgesamt werden 27 anatomische Strukturen konturiert. Die anatomischen Definitionen von 25 Strukturen beziehen sich auf den Brouwer-Atlas53 und das Neuroanatomie-Lehrbuch54, d. h. Gehirn, Hirnstamm, Augen (links und rechts), Ohrspeicheldrüsen (links und rechts), Unterkieferknochen (links und rechts), Linse (links und rechts). , Mundhöhle, Gelenk-TM (links und rechts), Lippen, Zähne, Unterkieferspeicheldrüse (links und rechts), Stimmritze, Rachenkonstriktormuskeln (oberer, mittlerer und unterer Bereich), Hypophyse, Chiasma und Plexus brachialis (links und rechts) . Die Konturierung der Temporallappen (links und rechts) bezieht sich auf den Gehirnatlas55.
Insgesamt werden 16 anatomische Strukturen konturiert, wobei 8 anatomische Strukturen gemäß der Richtlinie 110656 der Radiation Therapy Oncology Group (RTOG) und dem Lehrbuch der kardiothorakalen Anatomie57 definiert sind, d. h. Herz, Lunge (links und rechts), aufsteigende Aorta, Speiseröhre, Wirbelkörper, Luftröhre und Rippe. Brust (links und rechts), Brust_PRV05 (links und rechts), mediastinale Lymphknoten und Humeruskopf (links und rechts) sind anhand des RTOG-Brustkrebsatlas58 konturiert. Darüber hinaus folgt die Konturierung von NSCLC RTOG 051559.
Zehn anatomische Strukturen werden konturiert (d. h. Darmbeutel, Gallenblase, Niere (links und rechts), Leber, Milz, Magen, Bauchspeicheldrüse, Dickdarm und Zwölffingerdarm), unter Bezugnahme auf die RTOG-Richtlinie60, deren offizielle Website für Abgrenzungsempfehlungen (http://www.rtog.org). .rtog.org) und Netters Atlas61.
Neun anatomische Strukturen werden unter Bezugnahme auf die RTOG-Richtlinie60 und den Netter-Atlas61 konturiert, darunter Femurkopf (links und rechts), Becken, Blase (männlich und weiblich), Rektum, Hoden, Prostata und Colon_Sigmoid.
Die Strukturen des Wirbelkanals, des Rückenmarks und der äußeren Haut werden ebenfalls gemäß der RTOG-Richtlinie 110656 konturiert.
Die Konturen von CTV und PTV beziehen sich hauptsächlich auf den RTOG-Atlas62 und den AGITG-Atlas63.
Angesichts der heterogenen Bildeigenschaften mehrerer Zentren ist die Datenvorverarbeitung ein entscheidender Schritt zur Normalisierung der Daten.
Im grobstufigen Modell (niedrige Auflösung) wird ein großer Zielabstand von 5 × 5 × 5 mm3 empfohlen, um globale Standortinformationen zu erhalten, während wir im feinstufigen Modell (hohe Auflösung) einen kleinen Zielabstand von anwenden 1 × 1 × 1 mm3 zur Erfassung lokaler Strukturinformationen.
Beim Training des Grobmodells wird die Interpolationsmethode des nächsten Nachbarn empfohlen, um das Bild erneut in den Zielabstand abzutasten. Beim Training des Feinebenenmodells können die Methoden der Interpolation des nächsten Nachbarn und der linearen Interpolation für die Neuabtastung anisotroper bzw. isotroper Bilder verwendet werden, um die Resampling-Artefakte zu unterdrücken.
Patchgröße und Stapelgröße werden normalerweise durch den jeweiligen GPU-Speicher (Graphics Processing Unit) begrenzt. Für die Segmentierung gemeinsamer Organe wird sowohl für das Grobmodell als auch für das Feinmodell eine Patchgröße von 96 × 96 × 96 empfohlen. Für die Segmentierung großer Organe wie der Ganzkörperhaut betragen die Patchgrößen des Grobstufenmodells und des Feinstufenmodells 96 × 96 × 96 bzw. 196 × 196 × 196. Die Mini-Batch-Patches mit fester Größe werden aus dem neu abgetasteten Bild ausgeschnitten, indem zufällig Mittelpunkte im Bildraum generiert werden.
Patches mit Zielgröße und -abstand könnten auf die Intensität von [−1, 1] normalisiert werden, was dazu beitragen kann, dass das Netzwerk schnell konvergiert. Bei CT-Bildern sind die Intensitätswerte quantitativ, was die physikalischen Eigenschaften des Gewebes widerspiegelt. Daher wird eine feste Normalisierung verwendet, bei der jeder Patch normalisiert wird, indem der Fensterpegel subtrahiert und dann durch die halbe Fensterbreite des einzelnen Organs dividiert wird. Nach der Normalisierung wird jeder Patch auf den Bereich von [−1, 1] begrenzt und dann zum Training in das Netzwerk eingespeist.
Unser vorgeschlagenes Framework ermöglicht die Festlegung individueller Lernraten und Optimiererkonfigurationen basierend auf spezifischen Aufgaben.
Es wird verwendet, um das Netzwerk zu verfeinern, wobei die Lernrate mit der Konvergenz des Netzwerks von einem großen Anfangswert auf einen kleinen Wert sinken kann.
Der Adam-Optimierer wird mit einstellbaren Hyperparametern verwendet, einschließlich Momentum, Decay und Betas.
Es wird verwendet, um die Robustheit des Modells zu verbessern, einschließlich Drehung, Skalierung, Spiegeln, Verschieben und Hinzufügen von Rauschen.
Um die Robustheit gegenüber Klassenungleichgewichten sicherzustellen, werden zwei Stichprobenschemata verwendet, um Mini-Batches aus einem Trainingsbild zu generieren, einschließlich globaler Stichprobe und Maskenstichprobe. Insbesondere generiert das globale Sampling-Schema zufällig Mittelpunkte im gesamten Vordergrundraum, und das Masken-Sampling-Schema generiert zufällig Mittelpunkte in den Regionen von Interesse (ROIs). Für das Modell auf grober Ebene wird eine globale Probenahme empfohlen, um das Ziel der Lokalisierung des Ziel-ROI zu erreichen, und für das Modell auf feiner Ebene wird eine Maskenprobenahme empfohlen, um das Ziel einer genauen Abgrenzung des Zielvolumens zu erreichen.
Die grundlegenden Segmentierungsverlustfunktionen wie Dice, Boundary Dice und Focal Loss Function können zur Optimierung des Netzwerks verwendet werden. Die mehrdimensionale Verlustfunktion ist als adaptive Dice-Verlustfunktion definiert, um das Netzwerk zu zwingen, auf die Grenzsegmentierung zu achten, insbesondere auf die Grenze jedes 2D-Slices:
In dieser Gleichung bezieht sich loss3D auf den 3D-Würfelverlust und λ1 ist sein Gewicht, während \({{{\mbox{loss}}}}_{2{{\mbox{D}}}}^{{{\mbox{ i}}}}\) bezieht sich auf den 2D-Würfelverlust des i-ten 2D-Slices und \({\lambda }_{{{{{{\rm{adaptive}}}}}}}^{i}\ ) ist sein adaptives Gewicht, das aus der Leistung dieses 2D-Slices berechnet wird; λ2 ist das Gewicht des 2D-Würfelverlusts. Detailliertere Definitionen des 3D-Würfelverlusts und des 2D-Würfelverlusts finden Sie in den folgenden beiden Gleichungen:
In diesen beiden Gleichungen bezeichnet pred3D die 3D-Vorhersage und target3D deren manuelle Grundwahrheit, während \({{{\mbox{pred}}}}_{2{{\mbox{D}}}}^{{{\ mbox{i}}}}\) bezeichnet die 2D-Vorhersage des i-ten 2D-Slices und \({{{\mbox{target}}}}_{2{{\mbox{D}}}}^{{ {\mbox{i}}}}\) bezeichnet seine manuelle Grundwahrheit. Die Einstellungen der Hyperparameter lauten wie folgt: λ1 ist auf 0,7 und λ2 auf 0,3 eingestellt. Außerdem ist λadaptiv ein adaptives Gewicht, das aus der folgenden Gleichung berechnet wird:
Mit Ausnahme des mehrdimensionalen Verlusts sind die Aufmerksamkeitsmechanismen (einschließlich der grenzenbewussten Aufmerksamkeitskarte und der OAR-bewussten Aufmerksamkeitskarte) auch speziell für die Zielvolumenabgrenzungsaufgaben konzipiert. Detaillierte Informationen finden Sie im Abschnitt Ergebnisse und Diskussion.
In unserem Framework ist VB-Net eine Schlüsselkomponente für die Organsegmentierung in mehreren Größen. Die VB-Net-Struktur besteht aus Eingabeblock, Abwärtsblock, Aufwärtsblock und Ausgabeblock (ergänzende Abbildung 3). Die Down/Up-Blöcke werden in Form von Reststrukturen implementiert und der Engpass wird übernommen, um die Dimension von Feature-Maps zu reduzieren. In jedem Down-/Up-Block kann der Benutzer die Anzahl der Engpässe zuweisen. Darüber hinaus ist die Sprungverbindung auf jeder Auflösungsebene erforderlich. Insbesondere kann VB-Net auch für die Verarbeitung großer 3D-Bildmengen, z. B. Ganzkörper-CT-Scans, angepasst werden. Im angepassten VB-Net werden ein zusätzlicher Downsampling-Vorgang vor der Einspeisung des Bildes in den Backbone und ein zusätzlicher Upsampling-Vorgang nach der Generierung der Segmentierungswahrscheinlichkeitskarten hinzugefügt, um die GPU-Speicherkosten zu senken und das Empfangsfeld des VB-Net zu vergrößern gleichzeitig. Bei diesen großen Organen mit hoher Intensitätshomogenität trägt das vergrößerte Empfangsfeld des maßgeschneiderten VB-Net dazu bei, sich auf die Grenzen zu den umgebenden Organen mit geringem Kontrast zu konzentrieren.
Das Framework ist in PyTorch mit einer Nvidia Tesla V100 GPU implementiert. 10 % des Trainingssatzes werden zufällig als Validierung in jeder Aufgabe ausgewählt, wobei der Verlust am Ende jeder Trainingsepoche berechnet wird. Der Trainingsprozess gilt als konvergiert, wenn der Verlust 5 Epochen lang nicht abnimmt. Außerdem wird die auf verbundenen Komponenten basierende Nachbearbeitung bereitgestellt, um falsche Fehlalarme zu eliminieren, indem die größte verbundene Komponente in den Organsegmentierungsaufgaben ausgewählt oder kleine verbundene Komponenten in den Tumorsegmentierungsaufgaben entfernt werden.
Für kontinuierliche Variablen, die annähernd normalverteilt waren, wurden sie als Mittelwert ± Standardabweichung dargestellt. Für kontinuierliche Variablen mit asymmetrischen Verteilungen wurden sie als Median (25., 75. Perzentil) dargestellt. Um die Segmentierungsleistung (einschließlich Dice-Koeffizienten und Inferenzzeiten) von RTP-Net mit anderen drei Methoden (einschließlich U-Net, nnU-Net und Swin UNETR) quantitativ zu vergleichen, wurden statistische Analysen mithilfe einer Zwei-Wege-ANOVA und anschließend von Dunnett durchgeführt mehrere Vergleichstests. Es wurden zweiseitig angepasste p-Werte erhalten und mit einem Sternchen dargestellt, wobei * p < 0,05, ** p < 0,01 und *** p < 0,001 angibt. Alle statistischen Analysen wurden mit IBM SPSS 26.0 implementiert.
Box-and-Whisker-Diagramme wurden verwendet, um die Segmentierungsleistung (einschließlich Dice-Koeffizienten und Inferenzzeiten) von RTP-Net mit anderen drei Methoden (einschließlich U-Net, nnU-Net und Swin UNETR) qualitativ zu vergleichen, die von GraphPad aufgezeichnet wurden Prism 9. Die Visualisierung der Segmentierungsergebnisse wurde mit ITK-SNAP 3.8.0 generiert. Alle Figuren wurden mit Adobe Illustrator CC 2019 erstellt.
Weitere Informationen zum Forschungsdesign finden Sie in der mit diesem Artikel verlinkten Nature Research Reporting Summary.
Die OAR-bezogenen Bilder (N = 28.219), die die Experimente in diesem Artikel unterstützen, stammen aus öffentlich verfügbaren multizentrischen Datensätzen, z. B. The Cancer Imaging Archive (TCIA, https://www.cancerimagingarchive.net/), Head and Neck (HaN) Autosegmetation Challenge 2015 (https://paperswithcode.com/dataset/miccai-2015-head-and-neck-challenge), Segmentation of Thoracic Organs at Risk in CT Images (SegTHOR) Challenge 2019 (https://segthor .grand-challenge.org/), Combined (CT-MR) Healthy Abdominal Organ Segmentation (CHAOS) Challenge 2019 (https://chaos.grand-challenge.org/), Medical Segmentation Decathlon (MSD) Challenge 2018 (http: //medicaldecathlon.com/) und Lung Nodule Analysis (LUNA) 2016 (https://luna16.grand-challenge.org/). Die restlichen tumorbezogenen Daten (N = 362) wurden vom Fudan University Shanghai Cancer Center (Shanghai, China) bezogen, wo Teildaten (dh 50 Fälle) zusammen mit dem Code mit der Genehmigung des jeweiligen Krebszentrums veröffentlicht werden. Der gesamte Datensatz ist aufgrund von Datenschutzproblemen und Regulierungsrichtlinien im Krebszentrum geschützt.
Der zugehörige Code ist auf GitHub (https://github.com/simonsf/RTP-Net)64 verfügbar.
Sung, H. et al. Globale Krebsstatistik 2020: Globocan-Schätzungen der Inzidenz und Mortalität weltweit für 36 Krebsarten in 185 Ländern. CA-Cancer J. Clin. 71, 209–249 (2021).
Artikel PubMed Google Scholar
Siegel, RL, Miller, KD, Fuchs, HE & Jemal, A. Krebsstatistik, 2021. CA-Cancer J. Clin. 71, 7–33 (2021).
Artikel PubMed Google Scholar
Wei, W. et al. Krebsregistrierung in China und ihre Rolle bei der Krebsprävention und -kontrolle. Lancet Oncol. 21, e342–e349 (2020).
Artikel PubMed Google Scholar
Atun, R. et al. Ausbau des weltweiten Zugangs zur Strahlentherapie. Lancet Oncol. 16, 1153–1186 (2015).
Artikel PubMed Google Scholar
Delaney, G., Jacob, S., Featherstone, C. & Barton, M. Die Rolle der Strahlentherapie bei der Krebsbehandlung: Abschätzung der optimalen Nutzung anhand einer Überprüfung evidenzbasierter klinischer Leitlinien. Krebs 104, 1129–1137 (2005).
Artikel PubMed Google Scholar
Baskar, R., Lee, KA, Yeo, R. & Yeoh, KW Krebs- und Strahlentherapie: Aktuelle Fortschritte und zukünftige Richtungen. Int. J. Med. Wissenschaft. 9, 193–199 (2012).
Artikel PubMed PubMed Central Google Scholar
Barnett, GC et al. Normale Gewebereaktionen auf Strahlentherapie: Auf dem Weg zur Anpassung der Behandlungsdosis an den Genotyp. Nat. Rev. Cancer 9, 134–142 (2009).
Artikel CAS PubMed PubMed Central Google Scholar
Jackson, SP & Bartek, J. Die DNA-Schadensreaktion in der menschlichen Biologie und Krankheit. Natur 461, 1071–1078 (2009).
Artikel ADS CAS PubMed PubMed Central Google Scholar
De Ruysscher, D. et al. Strahlentherapie-Toxizität. Nat. Rev. Dis. Prim. 5, 13 (2019).
Artikel PubMed Google Scholar
Huynh, E. et al. Künstliche Intelligenz in der Radioonkologie. Nat. Rev. Clin. Oncol. 17, 771–781 (2020).
Artikel PubMed Google Scholar
Deig, CR, Kanwar, A. & Thompson, RF Künstliche Intelligenz in der Radioonkologie. Hämatol. Oncol. Klin. North Am. 33, 1095–1104 (2019).
Artikel PubMed Google Scholar
Cardenas, CE et al. Fortschritte in der automatischen Segmentierung. Semin. Strahlen. Oncol. 29, 185–197 (2019).
Artikel PubMed Google Scholar
Sharp, G. et al. Vision 20/20: Perspektiven zur automatisierten Bildsegmentierung für die Strahlentherapie. Med. Physik. 41, 050902 (2014).
Artikel PubMed PubMed Central Google Scholar
Hosny, A. et al. Künstliche Intelligenz in der Radiologie. Nat. Rev. Cancer 18, 500–510 (2018).
Artikel CAS PubMed PubMed Central Google Scholar
Litjens, G. et al. Eine Umfrage zum Deep Learning in der medizinischen Bildanalyse. Med. Bild Anal. 42, 60–88 (2017).
Artikel PubMed Google Scholar
Minaee, S. et al. Bildsegmentierung mittels Deep Learning: Eine Umfrage. IEEE Trans. Muster Anal. Mach. Intel. 44, 3523–3542 (2022).
Lustberg, T. et al. Klinische Bewertung der auf Atlas und Deep Learning basierenden automatischen Konturierung bei Lungenkrebs. Radiother. Oncol. 126, 312–317 (2018).
Artikel PubMed Google Scholar
Zabel, WJ et al. Klinische Bewertung von Deep Learning und atlasbasierter Autokonturierung von Blase und Rektum für die Strahlentherapie der Prostata. Üben. Strahlen. Oncol. 11, e80–e89 (2021).
Artikel PubMed Google Scholar
Wang, H. et al. Multi-Atlas-Segmentierung mit gemeinsamer Etikettenfusion. IEEE Trans. Muster Anal. Mach. Intel. 35, 611–623 (2013).
Artikel PubMed Google Scholar
Isgum, I. et al. Multi-Atlas-basierte Segmentierung mit lokaler Entscheidungsfusionsanwendung zur Herz- und Aortensegmentierung in CT-Scans. IEEE Trans. Med. Bildgebung 28, 1000–1010 (2009).
Artikel PubMed Google Scholar
Dolz, J., Desrosiers, C. & Ben Ayed, I. 3D-Vollfaltungsnetzwerke für die subkortikale Segmentierung in der MRT: Eine groß angelegte Studie. Neuroimage 170, 456–470 (2018).
Artikel PubMed Google Scholar
Chen, L. et al. DRINet für die Segmentierung medizinischer Bilder. IEEE Trans. Med. Bildgebung 37, 2453–2462 (2018).
Artikel PubMed Google Scholar
Hu, H., Li, Q., Zhao, Y. & Zhang, Y. Parallele Deep-Learning-Algorithmen mit hybridem Aufmerksamkeitsmechanismus zur Bildsegmentierung von Lungentumoren. IEEE Trans. Ind. Informieren. 17, 2880–2889 (2021).
Artikel Google Scholar
Oksuz, I. et al. Deep-Learning-basierte Erkennung und Korrektur kardialer MR-Bewegungsartefakte während der Rekonstruktion für eine hochwertige Segmentierung. IEEE Trans. Med. Bildgebung 39, 4001–4010 (2020).
Artikel PubMed Google Scholar
Funke, J. et al. Groß angelegte Bildsegmentierung mit strukturiertem, verlustbasiertem Deep Learning für die Konnektomrekonstruktion. IEEE Trans. Muster Anal. Mach. Intel. 41, 1669–1680 (2019).
Artikel PubMed Google Scholar
Gibson, E. et al. Automatische Multiorgan-Segmentierung im Abdomen-CT mit dichten V-Netzwerken. IEEE Trans. Med. Bildgebung 37, 1822–1834 (2018).
Artikel PubMed PubMed Central Google Scholar
Isensee, F. et al. nnU-Net: Eine selbstkonfigurierende Methode zur Deep-Learning-basierten biomedizinischen Bildsegmentierung. Nat. Methoden 18, 203–211 (2021).
Artikel CAS PubMed Google Scholar
Haberl, MG et al. CDeep3M – Cloud-basiertes Plug-and-Play-Deep-Learning für die Bildsegmentierung. Nat. Methoden 15, 677–680 (2018).
Artikel CAS PubMed PubMed Central Google Scholar
Zhu, W. et al. AnatomyNet: Deep Learning für die schnelle und vollautomatische Segmentierung der Kopf- und Halsanatomie im gesamten Volumen. Med. Physik. 46, 576–589 (2019).
Artikel PubMed Google Scholar
Dong, X. et al. Automatische Multiorgan-Segmentierung in Thorax-CT-Bildern mit U-Net-GAN. Med. Physik. 46, 2157–2168 (2019).
Artikel PubMed Google Scholar
Hatamizadeh, A. et al. Swin UNETR: Swin-Transformatoren zur semantischen Segmentierung von Hirntumoren in MRT-Bildern. BrainLes 2021. Vorlesungsunterlagen in Informatik 12962 (2021).
Yu, L. et al. Erste Implementierung einer vollständigen Workflow-Automatisierung in der Strahlentherapie: die All-in-One-Lösung für Rektumkarzinom. arXiv-Vorabdruck arXiv: 2202.12009 (2022). https://doi.org/10.48550/arXiv.2202.12009.
Han, M. et al. Groß angelegte Evaluierung von V-Net zur Organsegmentierung in der bildgesteuerten Strahlentherapie. Proz. SPIE Med. Imaging 2019: Image-Guide. Proced., Robotic Interventions, Modeling 109510O, 1–7 (2019).
Google Scholar
Wang, S. et al. CT-Segmentierung männlicher Beckenorgane unter Verwendung vollständiger Faltungsnetzwerke mit grenzensensitiver Darstellung. Med. Bild Anal. 54, 168–178 (2019).
Artikel PubMed PubMed Central Google Scholar
Men, K., Dai, J. & Li, Y. Automatische Segmentierung des klinischen Zielvolumens und gefährdeter Organe in der Planungs-CT für Rektumkrebs mithilfe tief erweiterter Faltungs-Neuronalnetze. Med. Physik. 44, 6377–6389 (2017).
Artikel CAS PubMed Google Scholar
Liang, S. et al. Deep-Learning-basierte Erkennung und Segmentierung gefährdeter Organe in Computertomographiebildern von Nasopharynxkarzinomen für die Strahlentherapieplanung. EUR. Radiol. 29, 1961–1967 (2019).
Artikel PubMed Google Scholar
Balagopal, A. et al. Vollautomatische Organsegmentierung in CT-Bildern des männlichen Beckens. Physik. Med. Biol. 63, 245015 (2018).
Artikel PubMed Google Scholar
Ge, Y. & Wu, QJ Wissensbasierte Planung für intensitätsmodulierte Strahlentherapie: Eine Überprüfung datengesteuerter Ansätze. Med. Physik. 46, 2760–2775 (2019).
Artikel PubMed Google Scholar
Lou, B. et al. Ein bildbasiertes Deep-Learning-Framework zur Individualisierung der Strahlentherapiedosis. Lanzettenziffer. Gesundheit 1, e136–e147 (2019).
Artikel PubMed PubMed Central Google Scholar
Meyer, P. et al. Automatisierung in der Strahlentherapie-Behandlungsplanung: Anwendungsbeispiele in der klinischen Praxis und zukünftige Trends für einen vollständig automatisierten Arbeitsablauf. Krebs-Radiotherapie. 25, 617–622 (2021).
Artikel CAS PubMed Google Scholar
Nikolov, S. et al. Klinisch anwendbare Segmentierung der Kopf-Hals-Anatomie für die Strahlentherapie: Entwicklung und Validierung von Deep-Learning-Algorithmen. J. Med. Internet Res. 23, e26151 (2021).
Artikel PubMed PubMed Central Google Scholar
Oktay, O. et al. Evaluierung von Deep Learning zur Verbesserung der bildgesteuerten Strahlentherapie bei Kopf-, Hals- und Prostatakrebs. JAMA Netw. Öffnen Sie 3, e2027426 (2020).
Artikel PubMed PubMed Central Google Scholar
Poortmans, PMP et al. Der Winter ist vorbei: Der Einsatz künstlicher Intelligenz zur Individualisierung der Strahlentherapie bei Brustkrebs. Brust 49, 194–200 (2020).
Artikel PubMed Google Scholar
Fan, J. et al. Automatische Behandlungsplanung basierend auf einer dreidimensionalen Dosisverteilung, die mithilfe der Deep-Learning-Technik vorhergesagt wird. Med. Physik. 46, 370–381 (2019).
Artikel PubMed Google Scholar
Xia, X. et al. Eine auf künstlicher Intelligenz basierende Komplettlösung für die Strahlentherapie: Eine Proof-of-Concept-Studie zu Rektumkrebs. Vorderseite. Oncol. 10, 616721 (2021).
Artikel PubMed PubMed Central Google Scholar
Clark, K. et al. Das Cancer Imaging Archive (TCIA): Pflege und Betrieb eines öffentlichen Informationsspeichers. J. Ziffer. Bildgebung 26, 1045–1057 (2013).
Artikel PubMed PubMed Central Google Scholar
Raudaschl, PF et al. Evaluierung von Segmentierungsmethoden in der Kopf-Hals-CT: Auto-Segmentation Challenge 2015. Med. Physik. 44, 2020–2036 (2017).
Artikel PubMed Google Scholar
Ang, KK et al. Randomisierte Phase-III-Studie mit gleichzeitiger beschleunigter Bestrahlung plus Cisplatin mit oder ohne Cetuximab bei Kopf-Hals-Karzinomen im Stadium III bis IV: RTOG 0522. J. Clin. Oncol. 32, 2940–2950 (2014).
Artikel CAS PubMed PubMed Central Google Scholar
Lambert, Z., Petitjean, C., Dubray, B. & Kuan, S. SegTHOR: Segmentierung gefährdeter Brustorgane in CT-Bildern. 2020 Zehnte Internationale Konferenz über Bildverarbeitungstheorie, -werkzeuge und -anwendungen (IPTA), 1–6 (2020).
Kavur, AE et al. CHAOS Challenge – Kombinierte (CT-MR) gesunde Segmentierung der Bauchorgane. Med. Bild Anal. 69, 101950 (2021).
Artikel PubMed Google Scholar
Antonelli, M. et al. Der Zehnkampf der medizinischen Segmentierung. Nat. Komm. 13, 4128 (2022).
Armato, SG et al. Das Lung Image Database Consortium (LIDC) und die Image Database Resource Initiative (IDRI): Eine vollständige Referenzdatenbank zu Lungenknoten auf CT-Scans. Med. Physik. 38, 915–931 (2011).
Artikel PubMed PubMed Central Google Scholar
Brouwer, CL et al. CT-basierte Abgrenzung gefährdeter Organe im Kopf- und Halsbereich: DAHANCA, EORTC, GORTEC, HKNPCSG, NCIC CTG, NCRI, NRG Oncology und TROG-Konsensrichtlinien. Radiother. Oncol. 117, 83–90 (2015).
Artikel PubMed Google Scholar
Lee, TC & Mukundan, S. Netter's Correlative Imaging: Neuroanatomy, 1. Auflage. Saunders (2014). ISBN: 9781455726653.
Sun, Y. et al. Empfehlung für eine Konturierungsmethode und einen Atlas gefährdeter Organe bei Patienten mit Nasopharynxkarzinom, die eine intensitätsmodulierte Strahlentherapie erhalten. Radiother. Oncol. 110, 390–397 (2014).
Artikel PubMed Google Scholar
Kong, FM et al. Berücksichtigung von Dosisgrenzen für thorakale Strahlentherapie gefährdete Organe: Atlas für Lunge, proximalen Bronchialbaum, Speiseröhre, Rückenmark, Rippen und Plexus brachialis. Int. J. Radiat. Oncol. Biol. Physik. 81, 1442–1457 (2011).
Artikel PubMed Google Scholar
Gotway, MB Netters Correlative Imaging: Cardiothoracic Anatomy. Elsevier (2013). ISBN: 9781437704402.
Gentile, MS et al. Konturierungsrichtlinien für die axillären Lymphknoten zur Durchführung einer Strahlentherapie bei Brustkrebs: Auswertung des RTOG-Brustkrebsatlas. Int. J. Radiat. Oncol. Biol. Physik. 93, 257–265 (2015).
Artikel PubMed Google Scholar
Bradley, J. et al. Eine vergleichende Phase-II-Studie zur Definition des Bruttotumorvolumens mit oder ohne PET/CT-Fusion in der dosimetrischen Planung für nicht-kleinzelligen Lungenkrebs (NSCLC): Primäranalyse der Gruppe für Strahlentherapie-Onkologie (RTOG) 0515. Int. J. Radiat. Oncol. Biol. Physik. 82, 435–441.e431 (2012).
Artikel PubMed Google Scholar
Gay, HA et al. Richtlinien zur Konturierung des normalen Beckengewebes für die Strahlentherapie: Ein Konsens-Panel-Atlas der Radiation Therapy Oncology Group. Int. J. Radiat. Oncol. Biol. Physik. 83, e353–e362 (2012).
Artikel PubMed PubMed Central Google Scholar
Netter, FH Atlas der menschlichen Anatomie, 6. Auflage. Saunders (2014). ISBN: 9780323390101.
Myerson, RJ et al. Wählbare klinische Zielvolumina für die konforme Therapie bei anorektalem Krebs: Ein Konsensus-Panel-Konturatlas der Gruppe für Strahlentherapie-Onkologie. Int. J. Radiat. Oncol. Biol. Physik. 74, 824–830 (2009).
Artikel PubMed Google Scholar
Ng, M. et al. Konturierungsatlas und Planungsrichtlinien der Australasian Gastrointestinal Trials Group (AGITG) für die intensitätsmodulierte Strahlentherapie bei Analkrebs. Int. J. Radiat. Oncol. Biol. Physik. 83, 1455–1462 (2012).
Artikel PubMed Google Scholar
Shi, F. et al. RTP-Net: v1.0 bei Veröffentlichung. Github (2022). https://doi.org/10.5281/zenodo.7193687.
Referenzen herunterladen
Die Studie wird durch folgende Mittel unterstützt: National Natural Science Foundation of China 62131015 (an Dinggang Shen) und 81830056 (an Feng Shi); Wichtiges F&E-Programm der Provinz Guangdong, China 2021B0101420006 (an Xiaohuan Cao, Dinggang Shen); Wissenschafts- und Technologiekommission der Stadt Shanghai (STCSM) 21010502600 (an Dinggang Shen).
Diese Autoren haben gleichermaßen beigetragen: Feng Shi, Weigang Hu, Jiaojiao Wu.
Abteilung für Forschung und Entwicklung, Shanghai United Imaging Intelligence Co., Ltd., Shanghai, China
Feng Shi, Jiaojiao Wu, Miaofei Han, Qing Zhou, Ying Wei, Ying Shao, Yanbo Chen, Yue Yu, Xiaohuan Cao, Yiqiang Zhan, Xiang Sean Zhou, Yaozong Gao und Dinggang Shen
Abteilung für Radioonkologie, Fudan University Shanghai Cancer Center, Shanghai, China
Weigang Hu & Jiazhou Wang
Abteilung für Onkologie, Shanghai Medical College, Fudan-Universität, Shanghai, China
Weigang Hu & Jiazhou Wang
Geschäftseinheit Strahlentherapie, Shanghai United Imaging Healthcare Co., Ltd., Shanghai, China
Wei Zhang & Jingjie Zhou
School of Biomedical Engineering, ShanghaiTech University, Shanghai, China
Dinggang Shen
Shanghai Clinical Research and Trial Center, Shanghai, China
Dinggang Shen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Studienkonzeption und -design: DS, YG und FS; Datenerfassung und -analyse: MH, QZ, YW, YS, YC, YY; Interpretation der Ergebnisse: WH, J.Wu, J.Wang, WZ, JZ, XC, YZ und XSZ; Manuskriptvorbereitung: J.Wu, FS, QZ und DS Alle Autoren überprüften die Ergebnisse und genehmigten die endgültige Version des Manuskripts. F. Shi, W. Hu und J. Wu haben gleichermaßen zu dieser Arbeit beigetragen.
Korrespondenz mit Yaozong Gao oder Dinggang Shen.
FS, JW, MH, QZ, YW, YS, YC, YY, XC, YZ, XSZ, YG und DS sind Mitarbeiter von Shanghai United Imaging Intelligence Co., Ltd.; WZ und JZ sind Mitarbeiter von Shanghai United Imaging Healthcare Co., Ltd. Die Unternehmen spielen keine Rolle bei der Konzeption und Durchführung der Überwachung sowie bei der Analyse und Interpretation der Daten. Alle anderen Autoren berichten über keine für diesen Artikel relevanten Interessenkonflikte.
Nature Communications dankt Esther Troost und den anderen, anonymen Gutachtern für ihren Beitrag zum Peer-Review dieser Arbeit. Peer-Reviewer-Berichte sind verfügbar.
Anmerkung des Herausgebers Springer Nature bleibt hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten neutral.
Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht durch gesetzliche Vorschriften zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.
Nachdrucke und Genehmigungen
Shi, F., Hu, W., Wu, J. et al. Deep Learning ermöglichte die Volumenabgrenzung von gefährdeten Ganzkörperorganen für eine beschleunigte Strahlentherapie. Nat Commun 13, 6566 (2022). https://doi.org/10.1038/s41467-022-34257-x
Zitat herunterladen
Eingegangen: 21. April 2022
Angenommen: 19. Oktober 2022
Veröffentlicht: 02. November 2022
DOI: https://doi.org/10.1038/s41467-022-34257-x
Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:
Leider ist für diesen Artikel derzeit kein gemeinsam nutzbarer Link verfügbar.
Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt
Nature Reviews Methods Primers (2023)
Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.