
Wykładowca w Katedrze Zastosowań Systemów Informatycznych WSIiZ. Związany z branżą gier wideo. Interesuje się programowaniem z zastosowaniem AIR SDK, szerszym zastosowaniem jego możliwości do produkcji interfejsów użytkownika na wiele platform. Entuzjasta tworzenia gier 2D przy pomocy Animate CC i AIR SDK, jako alternatywa dla Unity3D i innych mainstreamowych silników do gier.
Symulacja rozchodzenia się ultradźwięków w środowisku warstwowym w celu konstrukcji wektorów szkoleniowych do uczenia maszynowego
Ultradźwięki to jedna z najważniejszych metod, dzięki którym możemy zajrzeć do wnętrza materiałów – od stali po ludzkie tkanki – bez ich uszkadzania. W medycynie USG to codzienność: lekarze korzystają z obrazów w odcieniach szarości, aby ocenić narządy, mięśnie czy przepływ krwi. W przemyśle robi się w zasadzie to samo, tylko zamiast wątroby ogląda się spawy i elementy konstrukcji.
Problem? Klasyczne ultradźwięki potrafią pokazać kształty i granice struktur, ale nie powiedzą, jaki materiał właściwie widzimy. Wszystko, co ma podobną gęstość i właściwości akustyczne, wygląda niemal identycznie.
Obecnie większość głowic ultradźwiękowych wykorzystuje sygnały o jednej, stałej częstotliwości. To działa, ale ma swoje ograniczenia. Coraz więcej uwagi przyciągają więc przetworniki wieloczęstotliwościowe – urządzenia, które potrafią nadawać i odbierać fale o kilku częstotliwościach jednocześnie. W literaturze i patentach widać wyraźny wzrost zainteresowania takim podejściem, bo większe pasmo częstotliwości oznacza więcej informacji o materiale, przez który przechodzi fala.
Dlaczego to działa? Bo różne częstotliwości zachowują się w ośrodku inaczej: jedne są bardziej tłumione, inne rozpraszają się mocniej, kolejne inaczej odbijają się od warstw. Zjawiska takie jak dyspersja, absorpcja czy załamanie sprawiają, że każda częstotliwość „widzi” materiał w trochę inny sposób. Im bogatszy sygnał, tym więcej da się z tego odczytać – na przykład poprawić kontrast struktur albo „zajrzeć głębiej”, o czym wspominają prace analizujące potrójne częstotliwości.
Aby wykorzystać ten potencjał, sama głowica nie wystarczy. Dane trzeba jeszcze odpowiednio przetworzyć. Zakładamy użycie metod uczenia maszynowego, które potrafią na podstawie sygnału wskazać, z jakim materiałem mamy do czynienia. Dzięki temu obraz ultradźwiękowy może być nie tylko ładniejszy, ale przede wszystkim bardziej informacyjny – zamiast jednej plamy w odcieniach szarości dostajemy faktyczną mapę materiałów.
W artykule skupiamy się na najprostszym przypadku, czyli analizie jednowymiarowej. To dobry punkt startowy – łatwiej kontrolować warunki i zrozumieć fizykę zjawiska. Docelowo jednak takie podejście można rozszerzyć również na typowe obrazowanie dwuwymiarowe, a nawet trójwymiarowe.
Problemem jest jeszcze sama konstrukcja przetwornika wieloczęstotliwościowego. To kosztowne i skomplikowane urządzenie. Zamiast budować prototypy, sensowniej jest najpierw sprawdzić pomysł na komputerze. Do tego wykorzystujemy k-Wave – rozbudowane narzędzie symulacyjne działające w środowisku MATLAB. Pozwala ono modelować propagację fal w złożonych ośrodkach i analizować ich odbicia.
Celem tej pracy jest pokazanie, jak triada częstotliwości – trzy jednocześnie emitowane harmoniczne – zachowuje się podczas przechodzenia przez warstwowe środowisko. Uzyskane w symulacjach dane stanowią podstawę do trenowania sieci neuronowych, które mają w przyszłości wspierać bardziej nowoczesne, „inteligentne” metody wizualizacji ultradźwiękowej.
W dalszej części artykułu skupiamy się na dwóch kluczowych wyzwaniach, które trzeba rozwiązać, zanim będzie można realnie ocenić potencjał ultradźwięków wieloczęstotliwościowych.
Po pierwsze, trzeba stworzyć w k-Wave takie środowisko symulacyjne, które możliwie wiernie odwzorowuje zachowanie prawdziwych materiałów, w tym zjawiska dyspersji. Komputer nie ma intuicji – jeśli nie dostanie właściwych parametrów fizycznych, wyniki będą wyglądać ładnie, ale nie będą mieć żadnej wartości.
Po drugie, trzeba rozsądnie wybrać parametry sygnału emitowanego przez przetwornik piezoelektryczny. Innymi słowy: zdecydować, jakie częstotliwości i jaka ich kombinacja, dadzą największą szansę na rozróżnienie materiałów. Źle dobrane widmo to stracony pomiar, nawet jeśli reszta układu działa idealnie.
Dopiero po połączeniu tych dwóch elementów – realistycznej symulacji i przemyślanej konfiguracji sygnału – można mówić o rzetelnym testowaniu, czy triada harmonicznych faktycznie wnosi coś nowego do współczesnej ultrasonografii.
Wybór częstotliwości dla triady – wersja popularnonaukowa
Aby trzy częstotliwości w naszej triadzie faktycznie „zagrały ze sobą”, muszą być dobrane z głową. Fale ultradźwiękowe nie lecą przez materiał jak po sznurku – po drodze tracą energię. Zgodnie z prawem Stokesa tłumienie rośnie wykładniczo wraz z głębokością i zależy od częstotliwości: im wyższa częstotliwość, tym szybciej sygnał zanika.
To oznacza prostą rzecz: jeśli dobierzemy częstotliwości zbyt od siebie oddalone, każda z nich dotrze na inną głębokość i z inną siłą. W efekcie najmocniej przytłumiona częstotliwość przestanie cokolwiek wnosić, a cały pomysł na bogatszy sygnał przestaje mieć sens.
Dlatego stawiamy na częstotliwości harmoniczne, czyli takie, które są wielokrotnościami pewnej częstotliwości podstawowej – na przykład 1, 2 i 3 MHz. Są dostatecznie różne, żeby przenosić uzupełniające się informacje o materiale, ale na tyle blisko siebie, że nie giną z powodu drastycznie różnego tłumienia.
W praktyce daje to triadę, która jest jednocześnie stabilna, informatywna i realnie użyteczna w badaniu materiałów.
Konfiguracja symulowanego medium – wersja popularnonaukowa (z równaniami)
Aby sprawdzić, czy wykorzystanie triady częstotliwości faktycznie daje przewagę, zaczynamy od możliwie prostego układu testowego. W k-Wave budujemy warstwowe medium 2D, złożone z trzech materiałów: A, B i C (rys. 1). Fala ultradźwiękowa jest emitowana z punktowego źródła w górnej części siatki i rozchodzi się kołowo. Jednak dla naszych celów kluczowa jest część fali biegnąca prostopadle do warstw – czyli dokładnie to, co realny przetwornik „widzi” w typowej konfiguracji 1D.
Przetwornik w rzeczywistości działa impulsowo: najpierw nadaje, a chwilę później przełącza się w tryb odbioru. W symulacji odtwarzamy to zachowanie najprościej jak się da – źródło i detektor umieszczamy w tym samym punkcie. Dzięki temu rejestrujemy sygnał echa wracający z granic między materiałami.
Rysunek 1: Cztery kolejne etapy propagacji fali ultradźwiękowej w medium 2D
Medium zostało zdefiniowane na siatce kgrid o głębokości 320 węzłów (≈16 mm) i szerokości 60. Obiekty source i sensor wystarczająco dobrze odwzorowują zachowanie pojedynczego przetwornika piezoelektrycznego, więc bardziej zaawansowane narzędzia, takie jak kWaveTransducer, nie są tutaj potrzebne.
Triada harmonicznych – jak ją zdefiniowaliśmy?
Emitowany sygnał Ae(t) składa się z trzech harmonicznych o częstotliwościach 2,5 MHz, 3,75 MHz i 5 MHz. Pierwsza harmoniczna (1,25 MHz) została pominięta, bo ograniczenia siatki k-Wave nie pozwalają nam symulować zbyt niskich lub zbyt wysokich częstotliwości bez żałosnych czasów obliczeń. Przy naszej konfiguracji górny limit częstotliwości to ~5 MHz, co naturalnie ustawia nam dostępny zakres.
Emitowany sygnał można zapisać jako:
Ae(t) = a2(t) + a3(t) + a4(t), (1)
gdzie:
a2(t) = Asin (2ωt), a3(t) = Asin (3ωt), a4(t) = Asin (4ωt),
a:
- t – czas,
- A – amplituda,
- ω = 2πf – częstość kołowa.
To bardzo czysty sygnał: suma trzech harmonik o identycznej amplitudzie i kontrolowanych częstotliwościach.
Co wraca do przetwornika?
Zarejestrowany sygnał echa nie wygląda już tak pięknie, bo po drodze przechodzi przez różne warstwy. Każdy materiał tłumi dźwięk inaczej, a ponadto wprowadza dyspersję – czyli zmianę fazy zależną od częstotliwości.
Najprostszy opis echa to suma zniekształconych harmonicznych:
Ar(t) = A1sin (2ωt – φ1) + A2sin (3ωt – φ2) + A3sin (4ωt – φ3), (2)
gdzie:
- A1, A2, A3 – amplitudy po przejściu przez medium (tłumione różnie dla każdej harmonicznej),
- φ1, φ2, φ3 – przesunięcia fazowe zależne od właściwości materiału.
To równanie jest minimalnym modelem, dobrym do intuicyjnego zrozumienia, ale trzeba jasno powiedzieć: rzeczywistość jest brzydsza. W realnej propagacji pojawiają się efekty takie jak rozmycie widma, selektywne tłumienie, rozpraszanie i nieliniowości2026-01-08, które dokładają do sygnału dodatkowe częstotliwości. k-Wave pozwala odwzorować sporą część tych zjawisk – właśnie dlatego korzystamy z symulacji zamiast idealizować równania.
Jak zdefiniowaliśmy materiały?
Fale ultradźwiękowe pokonują tę samą fizyczną drogę przez każdą warstwę, ale efekt końcowy zależy od parametrów materiału. W symulacji każdy materiał opisaliśmy trzema wielkościami:
- prędkością dźwięku (sound_speed),
- gęstością (density),
- współczynnikiem absorpcji (alpha_coeff).
Te trzy wartości określają, jak mocno materiał tłumi i jak zmienia fazę poszczególnych częstotliwości. Kombinacje parametrów nie są unikalne – jeden zestaw może odpowiadać wielu substancjom fizycznym. Dlatego w Tabeli 1 przedstawiamy przykładowe, realistyczne materiały, które mogłyby mieć podobne właściwości.
Tabela 1: Parametry materiałowe użyte w symulacji
Jak triada częstotliwości odbija się od materiału
Sygnał, który wysyłamy w głąb materiału, to po prostu trzy sinusoidy o częstotliwościach będących wielokrotnością tej samej podstawy. W matematyce wygląda następująco:
Ae(t) = a2(t) + a3(t) + a4(t),
gdzie:
- a2(t) = Asin (2ωt)
- a3(t) = Asin (3ωt)
- a4(t) = Asin (4ωt)
Przy czym A to amplituda, a ω = 2πf.
Cała sztuczka z tą triadą polega na tym, że wszystkie trzy składowe są ze sobą spójne: przez materiał przechodzą podobnie, więc łatwiej je później porównać.
Dlaczego echo wygląda inaczej?
Kiedy fala odbija się od kolejnych warstw materiału, jej harmoniczne wychodzą z tego mocno zmienione. Każda częstotliwość tłumi się inaczej, a do tego fale zmieniają fazę, czyli są opóźniane w różnym stopniu. Dlatego sygnał, który rejestrujemy, można zapisać tak:
Ar(t) = A1sin (2ωt – φ1) + A2sin (3ωt – φ2) + A3sin (4ωt – φ3).
Fazy (φ1, φ2, φ3) to efekt dyspersji – różne materiały spowalniają fale na różnych częstotliwościach.
Amplitudy (A1, A2, A3) spadają, bo w każdym materiale fale tracą energię.
Oczywiście to jest wersja uproszczona. W rzeczywistości dochodzi jeszcze widmowe „rozmycie”, rozpraszanie i efekty nieliniowe, które generują dodatkowe częstotliwości. Symulacja k-Wave radzi sobie z tym, ale równanie – nie.
Co decyduje o tym, jak fala przechodzi przez materiał?
Każdy materiał opisujemy trzema parametrami:
- prędkością dźwięku,
- gęstością,
- współczynnikiem absorpcji.
To one dyktują, ile energii fala straci i o ile zostanie opóźniona. Zestaw parametrów nie identyfikuje materiału jednoznacznie, ale pozwala tworzyć realistyczne warstwy o różnych właściwościach. W tabeli (Twoja Tabela 1) podajesz przykłady fizycznych materiałów reprezentujących takie kombinacje.
Rysunek 2. Znormalizowane sygnały zarejestrowane przez czujnik dla trzech różnych rzędów materiałów
Co widać na Rys. 2
Na wykresie mamy sygnał, który odbiornik rejestruje po przejściu i odbiciu przez różne układy trzech warstw A, B i C. Żeby wszystko było w ogóle możliwe do zobaczenia na jednym wykresie, sygnał:
- przy nadawaniu osłabiono,
- echo wzmocniono,
- a następnie przekształcono je logarytmicznie.
Dlaczego logarytm? Bo tłumienie w materiałach jest wykładnicze – bez tego echo praktycznie ginęłoby po kilku milimetrach.
Dzięki tej sztuczce zależność amplitudy od głębokości robi się prawie liniowa, więc różnice między układami materiałów stają się czytelne.
Podsumowanie – po co to wszystko
Celem było sprawdzenie, czy triada częstotliwości faktycznie niesie użyteczną informację o budowie materiału. Symulacje pokazują, że:
- różne materiały zostawiają różne „ślady” w echu,
- kolejność warstw zmienia sygnał w sposób widoczny,
- odbicia są na tyle wyraźne, że modele uczące się będą mogły je wykorzystać.
Na razie robimy to w jednym wymiarze – 1D, ale następne kroki to przejście na 2D i 3D, a także praca z większą liczbą materiałów. Finalny cel jest prosty: przygotować taką bazę danych, żeby modele AI były w stanie – na podstawie echa – powiedzieć, co kryje się wewnątrz badanego obiektu.
Wnioski
Symulacje pokazały, że triada harmonicznych faktycznie niesie wystarczająco dużo informacji, by odróżnić różne materiały w ośrodku warstwowym. Granice między materiałami wyraźnie wpływają na amplitudy i fazy odbić.
Aktualnie pracujemy na modelu 1D, ale nic nie stoi na przeszkodzie, by rozszerzyć podejście na pełne 2D czy 3D. Ostatecznym celem jest stworzenie bazy danych, na której można trenować modele uczenia maszynowego rozpoznające materiały – coś, czego dzisiejsze aparaty USG nie potrafią.
Podejście wymaga jeszcze dopracowania, szczególnie jeśli chodzi o symulacje bardziej realistycznych materiałów i większych częstotliwości. Ale jeśli dalej będzie działać tak, jak sugerują wyniki, to może być krok w stronę bardziej „inteligentnego” obrazowania ultradźwiękowego.
REFERENCES
Aldrich, J. 2007. “Basic physics of ultrasound imaging.” Critical Care Medicine, No.35(5), S131-S137.
Blitz, J. and G. Simpson 1991. “Ultrasonic Methods of Non-Destructive Testing.” Springer-Verlag New York.
Brouard, B.; D. Lafarge and J.F. Allard, 1995. “A general method of modelling sound propagation in layered media.” Journal of Sound and Vibration, 183 (1), 129-142.
Dey S.; S.Z. Ali and E. Padhi. 2019. „Terminal fall velocity: the legacy of Stokes from the perspective of fluvial hydraulics.” Proceedings of the Royal Society A. 475 (2228).
Gudra, T. and K. J. Opieliński. 2006. “The ultrasonic probe for the investigating of internal object structure by ultrasound transmission tomography.” Ultrasonics 44, c679-c683.
Li Z. 2021. “A triple-frequency transducer for endoscopic imaging: Simulation design and experimental verification.” Sensors and Actuators A: Physical, 321, Article 112719.
Martin E.; J. Jaros and B.E. Treeby. 2019. “Experimental Validation of k-Wave: Nonlinear Wave Propagation in Layered, Absorbing Fluid Media.” IEEE Transactions on Ultrasonics Ferroelectrics and Frequency Control, 67(1), 81–91.
Messineo M.G.; G. Rus; G.E. Eliçabe and G.L. Frontini. 2016. “Layered material characterization using ultrasonic transmission. An inverse estimation methodology.” Ultrasonics, 65, 315-328.
Postema, M. 2011. Fundamentals of Medical Ultrasonics, London: CRC Press.
Powles A. E. J.; D. J. Martin; I. T. P. Wells, and C. R. Goodwin. 2018. “Physics of ultrasound.” Anaesthesia and Intensive Care Medicine 19(4), 202-205.
Presley C.T.; F.G. Vasquez and B. Raeymaekers. 2024. “Multi-Frequency Ultrasound Directed Self-Assembly.” Advanced Functional Materials, 34(33), 2400193.
Shao W.; X. Li; Z. Li; P. Li; X. Zhu; Y. Cui and J. Shen. 2022. “Multifrequency ultrasonic transducers based on dual vibration and harmonic mode.” Sensors and Actuators A: Physical, 333, 113228.
Sun X.L.; J.P. Yan; Y.F. Li, and H. Liu. 2018. “Multi-frequency ultrasound transducers for medical applications: a survey.” International Journal of Intelligent Robotics and Applications, 2, 296–312.
Uppal T. 2010. “Tissue harmonic imaging.” Australasian Journal of Ultrasound in Medicine, 13(2) 29-31.
Wilkinson P.B.; D.A. Gunn; S. Holyoake; B.A.J. Dashwood; C.R. Brett and J.G. Rees. 2018. “Low frequency acoustic and ultrasound waves to characterise layered media.” NDT & E International, 96, 35-46.
WEB REFERENCES
Foster F.S.; D. Hirson; N.C. Chaggares; E.W. Cherin; J. Yin; J. Yang and C. Demore. 2023. “Dual frequency plane wave ultrasound imaging system.” Patent US11583253B2 https://patents.google.com/patent/US11583253B2/en
k-Wave, A MATLAB toolbox for the time domain simulations of acoustic wave fields, http://www.k-wave.org/documentation/k-wave.php
Shenzhen Huanying Medical Technology Co ltd. 2024. “Imaging method and system based on multi-frequency ultrasonic transducer.” Patent CN113616245B https://patents.google.com/patent/CN113616245B/en