Аналогово-цифровое преобразование
Все биосигналы являются аналоговыми сигналами. Таким образом, перед тем, как они будут обрабатываться компьютерами, они должны быть преобразованы в цифровую форму. Под цифровой формой здесь понимается представление сигнала в двоичной системе счисления, где наличие электрического сигнала соответствует цифре 1, а отсутствие – цифре 0. Преобразование осуществляется посредством аналогово-цифрового преобразования (контроллер АЦП) (рис. 8.6). Если процедура проведена корректно, то информация, содержащаяся в сигнале, не теряется, и оригинальный аналоговый сигнал можно затем восстановить из цифрового путем цифро-аналогового преобразования (ЦАП).
Контроллер АЦП осуществляет преобразование входных аналоговых сигналов в цифровую форму, приемлемую для ввода в компьютер, с заданной частотой повторения таких преобразований или частотой дискретизации.
С аналогово-цифровым преобразованием биосигналов связаны два принципиальных вопроса:
а) какой должна быть частота измерений (частота дискретизации)?
б) насколько точно необходимо определять величину амплитуды периодического сигнала?
Для правильной обработки важно, чтобы информация не терялась и не искажалась. Очень низкая частота измерений может вызвать потерю информации, а очень высокая частота измерений является чрезмерной и не дает дополнительной информации, требуя большей компьютерной памяти.
|
|
Для некоторых биосигналов амплитуда может измеряться с погрешностью лишь до 1%, для других допускается погрешность 10%. Например, для электрокардиограммы амплитуда Q-волн должна измеряться с максимально возможной точностью, т.к. может свидетельствовать о наличии инфаркта, а для электроэнцефалограммы значение амплитуды непосредственно не представляет интереса, а важны изменения средних значений амплитуды во времени, позврляющие выявить патологию.
Если сигналы не обрабатываются с достаточно высокой частотой дискретизации (частотой измерений) и если амплитуды не измерены достаточно точно, сигналы будут искажены и будет невозможно получить необходимые параметры.
Частота измерений (регистрации) определяет дискретизацию системного времени. С этой частотой производится ввод аналоговых сигналов с АЦП и обработка управляющих воздействий.
Выбор частоты дискретизации определяется верхней частотой процессов, которые необходимо зарегистрировать и анализировать. Из радиотехники известно (теорема Котельникова (Найквиста) и следствия из нее), что для выделения гармонической составляющей в спектре с верхней частотой f необходима часота дискретизации входного сигнала не менее 2f.
|
|
Например, принято считать, что для электрокардиограммы максимальная частота спектра не превышает 100 Гц. Следовательно, для удовлетворительного представления непрерывного кардиосигнала в дискретном виде отсчеты должны быть по крайней мере вдвое чаще, чем максимальная частота спектра, т.е. в нашем примере ‑ 200 отсчетов в секунду (200 Гц).
На основании вышесказанного можно сделать следующие выводы:
1) дискретизация аналоговых переменных, в том числе биосигналов, возможна без потери информации;
2) частота дискретизации fд определяется частотным спектром сигнала и должна быть минимум в два раза больше частоты наиболее высокочастотной гармоники сигнала;
3) степень дискретизации зависит от природы параметров, которые должны быть получены при обработке сигнала.
Примеры применения анализа биосигналов
Методы обработки и интерпретации биосигналов все время эволюционируют, в основном, благодаря информационным технологиям, которые постоянно совершенствуются. Обработка биосигналов и их интерпретация нашли широкое применение в медицине. Приведем несколько примеров использования методов анализа биосигналов.
Функциональный анализ, проводимый в диагностических центрах для анализа электромиограмм, электроэнцефалограмм, электрокардиограмм, фонокардиограмм, спирограмм и т. д.
|
|
Скрининговые исследования. Скрининговые системы, предназначенные для проведения доврачебного обследования населения и формирования групп риска, часто базируются на информации, полученной посредством биосигналов. При этом используются те же приемы обработки биосигналов, что и при функциональном анализе.
On - line анализ, который имеет место в ситуациях, в которых за пациентом наблюдают в палатах интенсивной терапии. Другой пример оn-line анализа – это контроль за протезированием (например, коленного сустава) при неповрежденных нервах или мышцах.
В некоторых случая диагностическое оборудование подсоединяется к пациенту на достаточно продолжительный промежуток времени (например, мониторирование по Холтеру, при котором портативный электрокардиограф подключается на сутки). В этом случае непрерывный поток данных, поступающий от пациента, нуждается в сокращении и документировании. Без применения методов обработки биосигналов и компьютера данная процедура невозможна.
Методы обработки сигналов используются также в научных исследованиях. Например, в области физиологии методы обработки сигнала используются при изучении процессов деполяризации клеток.
|
|
Более подробно конкретные методы анализа изложены в теме «Медицинские аппаратно-программные комплексы» этого пособия.
|
(а) Только выходной сигнал. Наиболее общей является ситуация, когда мы имеем дело с биологическим процессом, который выдает только выходные сигналы (рис. 8.8 а). О процессе – источнике сигнала – сведений практически нет. Подход, использующийся при анализе таких сигналов, преимущественно эмпирический. Характерный пример такой ситуации – ЭКГ.
(b) Вызванный сигнал. Анализируемый сигнал у является результатом (откликом) на внешний известный сигнал х (раздражитель). Примеры: стимулированные отклики при исследовании ЭЭГ, отклики
Рис. 8.8. Четыре различных ситуации в обработке биосигнала: только выходной сигнал (а), вызванные сигналы (в), испытание во время стимуляции (с) и моделирование процесса (d); у – выходной сигнал.
клеток нервных мышечных волокон на механическое или электрическое стимулирование.
(с) Испытание во время стимуляции. Как и в предыдущем случае, анализируемый сигнал у является реакцией на внешний раздражитель z. Отличием является то, что в предыдущем случае раздражитель снимается и регистрируется только реакция организма, а при испытании во время стимуляции действие раздражителя во время регистрации не прекращается. Пример: электрокардиограмма во время физической нагрузки, электроэнцефалограмма во время анестезии.
(d) Моделирование. В случаях, когда имеются достаточные знания о процессе, возможным является разработка модели биологического процесса (рис. 8.8d), например, модель циркуляции крови или сердечной деполяризации. Исследование таких моделей позволяет получать дополнительную информацию об объекте-прототипе Такие модели используются во время исследования процесса, обучения нейронных сетей или оценки параметров сигнала. Стрелка на рисунке указывает наличие обратной связи, символ δ характеризует стадию сопоставления «процесс-модель».
МЕТОДЫ РЕНДЕРИНГА
(Материал для самостоятельного изучения)
По способу визуализации можно выделить три типа методов интроскопии: проекционные; томографические; эхозондирование (в том числе доплеровское). В проекционных методах проводят зондирование (облучение) объекта и получают его теневое изображение (проекцию) при помощи электромагнитных, рентгеновских или оптических волн. В томографических методах получают либо послойное изображение внутренней структуры объекта либо множество проекций с различных ракурсов в одной плоскости, которые затем обрабатываются математическими методами для воссоздания объекта в двумерном или трехмерном пространстве. При эхозондировании также получают изображение сечения (томоса) объекта, но для этого не применяют реконструкцию объекта математическими методами на основании срезов его внутренней структуры.
Для выполнения рендеринга используются специальные программные инструментальные средства, называемые рендерами. В основе их работы лежат специальные алгоритмы, некоторые из которых рассмотрены ниже.
Рендеринг поверхностей. Ключевой идеей этого вида рендеринга является построение промежуточного описания поверхности входного объемного объекта с помощью вспомогательных геометрических фигур. Для этого вначале проводится сегментация поверхности исходного объекта. Причем, если в качестве формы сегмента был выбран треугольник, то такой процесс называется триангуляцией*. Исходная поверхность объемного объекта заменяется сеткой из таких треугольников или других фигур. Построенная таким образом новая поверхность используется затем для рендеринга.
(* Примечание: в геометрии под триангуляцией понимают разбиение геометрического объекта на n-мерные тетраэдры .)
К явным достоинствам методов на основе поверхностей можно отнести существенное уменьшение количества данных при переходе от объемного представления к поверхностному. Время рендеринга также может быть уменьшено, если при формировании поверхности используются общепринятые структуры данных, такие как сетки с треугольными ячейками (триангуляция), рендеринг которых поддерживается программными и аппаратными средствами. С другой стороны, на этапе реконструкции поверхности (то есть, когда необходимо воссоздать реальную поверхность при помощи более простой) отбрасывается большое количество ценной информации, содержащейся в изображениях сечений. Если представление в виде поверхности уже сформировано, вернуться назад и получить исходные значения интенсивности невозможно. Разрезы объекта в этом представлении бессмысленны, так как информация об его внутренней части будет отсутствовать. Кроме того, каждое изменение параметров описания поверхности, например, порогов интенсивности света, требует полного пересчета всей структуры данных.
Реконструкция поверхности из объема — первый из методов, который начал широко использоваться в медицинских системах (разработан в конце 70-х годов). Полутоновой объем сначала преобразуется в бинарную структуру (например, бинарные деревья) с использованием порога интенсивности. Затем создается список граней вокселей, расположенных на границе между вокселями, которые принадлежат внутренней и наружной частям объекта (рис.8.9). Описание поверхности, сформированное по данному алгоритму, достаточно простое - все грани имеют одинаковый размер и форму и могут быть ориентированы только шестью различными способами. Конечно, такой метод дает только грубое приближение к настоящей форме объекта. Поэтому на результирующем 3D изображении отсутствуют многие тонкие детали.
Рис. 8.9.Контур изображения.
Позже были предложены методы, которые используют всю полутоновую информацию. В «алгоритме марширующих кубов», разработанном Лоренсеном и Клайном, рассматривается куб объемных данных, состоящий из 222 смежных вокселей. В зависимости от того, один или больше таких вокселей принадлежат воссоздаваемому объекту (их значения должно быть выше пороговой величины), строится часть поверхности объекта, состоящая не более, чем из четырех треугольников (триангуляция), и помещается внутрь куба. Точная локализация треугольников находится путем линейной интерполяции интенсивностей в вершинах вокселей. В результате получается поверхность с большим количеством деталей и разрешением выше воксельного. Ориентация поверхности вычисляется по градиенту интенсивности.
При применении алгоритма марширующих кубов к клиническим данным создаются сотни тысяч треугольников. Было показано, что число этих треугольников может быть значительно уменьшено путем последующего упрощения треугольной сетки без большой потери информации.
Закраска. В общем смысле, закраска – это получение реалистического изображения объекта, исходя из положения, ориентации и характеристик его поверхностей и с учетом освещающих его источников света. Отражающие свойства поверхности описываются с помощью модели освещенности, например, модели Фонга, которая учитывает свойства рассеянного, диффузного и отраженного света (рис. 8.10.)
Фоновая составляющая (диффузный свет) | Рассеянная составляющая | Зеркальная составляющая (блики или отраженный свет) | Результат |
Рис. 8.10.Модель отражения Фонга (три компонента освещенности поверхности).
Основное преимущество этого метода по сравнению с методами на основе поверхностей, заключается в том, что вся начальная информация об интенсивностях сохраняется в течение процесса рендеринга. Это делает данный метод идеальной техникой для интерактивного исследования данных. При этом интерактивно можно менять величины порогов и другие параметры, которые изначально не известны. Кроме того, рендеринг на основе вокселей позволяет комбинировать изображения разных типов: непрозрачные и полупрозрачные поверхности, разрезы и проекции максимальных интенсивностей. Недостатком методов на основе вокселей является необходимость обрабатывать большое количество данных. Это не позволяет решать прикладные задачи на современных компьютерах в реальном времени. Однако, с применением специальных аппаратных средств уже сейчас можно достичь скоростей несколько кадров в секунду.
Сканирование объема. Способы воксельного рендеринга различаются, главным образом, стратегией сканирования: пиксель за пикселем (упорядочение по изображению) или воксель за вокселем (упорядочение по объему). При сканировании с упорядочиванием по изображению объемные данные выбираются на лучах вдоль направления наблюдения. Этот метод известен как метод отслеживания луча.
Основные положения данного метода иллюстрируются на рис. 8.11. Вдоль луча легко определяется видимость поверхностей и объектов. Луч может остановиться, когда на его пути встречается непрозрачная поверхность.
Метод отслеживания луча является очень гибким и хорошо понятным приемом сканирования. Сравнительно легко совмещать методы рендеринга для непрозрачных, полупрозрачных и прозрачных поверхностей. Кроме того, сканирование по изображению можно одновременно использовать для рендеринга как воксельных, так и поверхностных данных. Качество изображения можно изменять, увеличивая или уменьшая шаг выборки данных. Все представленные иллюстрации получены с использованием алгоритма отслеживания луча.
С другой стороны, применимость алгоритмов отслеживания луча ограничивается требованиями большого объема памяти и высокой мощности компьютера. Для того, чтобы объект можно было рассматривать с различных направлений, необходимо обеспечить произвольный доступ ко всем входным объемным данным. Кроме того, для косых лучей требуется интерполяция интенсивностей в точках выборки данных. Для уменьшения времени вычислений процедуру рендеринга начинают с малой плотности выборки данных, чтобы быстро сгенерировать результирующий вид.
Рис. 8.11. Метод отслеживания луча для визуализации объема. В этом случае для нахождения поверхности объекта используется порог интенсивности.
Если пользователь не вносит каких-либо изменений, то плотность выборки данных постепенно увеличивается до максимального разрешения. Другой прием базируется на том, что большое количество времени тратится на трассировку пустого пространства вдали от изображаемых объектов. Если ограничивать лучи так, чтобы сканировать данные только внутри предопределенного объема вокруг рассматриваемых объектов, то время сканирования значительно уменьшается.
При сканировании с упорядочиванием по объему входные объемные данные выбираются вдоль строк и столбцов 3D массива и производится проецирование выбранного вида на плоскость изображения в направлении наблюдения.
Объем можно сканировать, начиная с вокселей, находящихся на максимальном расстоянии от плоскости изображения и заканчивая вокселями с минимальным расстоянием (back-to-front – BTF), либо в обратном порядке (front-to-back – FTB). В обоих случаях несколько вокселей могут проецироваться в один и тот же пиксель. Если необходимо изобразить непрозрачную поверхность, следует определить, какие части будут видимыми. При использовании техники BTF, значения пикселей просто замещаются новыми, так что появляются только видимые поверхности. При технике FTB пиксели, которые уже были записаны, сохраняются с помощью специального алгоритма, так называемого, z-буфера.
Приведенные методы являются достаточно быстрыми даже для компьютеров с небольшой оперативной памятью. Они особенно подходят для параллельной обработки. До сих пор большей гибкостью при комбинировании разных способов изображений обладали алгоритмы отслеживания луча. Однако, уже разработаны новые методы рендеринга объема, использующие упорядочивание по объему.
Закраска поверхностей. Применяя один из описанных методов сканирования, можно определить видимую поверхность объекта, используя, например, значение порога. Известен алгоритм закраски, который очень точно вычисляет вектора нормали к поверхности. Интенсивность вокселей, лежащих на поверхности, определяется коэффициентом прозрачности поверхности и углом преломления лучей света на границе материала и окружающего пространства.
Плоскости разрезов. Если поверхность объекта получена, то очень простым и эффективным методом визуализации его внутренних структур является построение разрезов. Когда исходные величины интенсивности отображаются на плоскость разреза, их легче понять в анатомическом контексте. Особым случаем является избирательный разрез, для которого определенные объекты исключаются (рис. 8.12).
Рис. 8.12. 3D изображение мозга по данным MRТ. Исходные величины интенсивностей отображаются на плоскости разрезов.
Интегральная проекция и проекция максимальных интенсивностей. Другой способ заглянуть внутрь объекта – это проинтегрировать величины интенсивностей вдоль направления луча зрения. Если при этом использованы все объемные данные, то такой способ – шаг назад к старой технике рентгенограмм. Однако, если такая проекция строится лишь по выбранным данным, то в некоторых случаях результат оказывается полезным.
Для маленьких ярких объектов, подобных сосудам, зарегистрированных методом магнитно-резонансной ангиографии (МРА), больше подходит метод проекции максимальных интенсивностей (рис. 8.13). При этом подходе вдоль каждого луча по объемным данным определяются значения максимальной интенсивности, которые затем проецируются на плоскость изображения. Достоинство метода заключается в том, что при его использовании не требуется ни сегментация, ни закраска – процедуры, которые могут плохо работать для мелких сосудов.
Рис. 8.13.3D изображения сосудов головы по данным магнитной резонансной ангиографии (MРA).
Однако у такого подхода есть и недостатки: так как метод максимальных интенсивностей совсем не учитывает отражение света, результирующие изображения не дают реалистического трехмерного восприятия объектов. Пространственное восприятие можно улучшить, вращая объект, комбинируя отображения с разных поверхностей или плоскостей разреза.
Хотя проекция максимальных интенсивностей (слева) выявляет больше деталей объекта, пространственное восприятие значительно лучше при использовании пороговой сегментации и закраски на основе градиента (справа).
Вопросы, вынесенные на практическое занятие:
1.Понятие интроскопии. Томография как метод интроскопии. Методы томографической интроскопии.
2. Методы получения изображений (радиологические и нерадиологические) в медицине. Понятие медицинского изображения.
4. Основные типы изображений. Способы визуализации медицинских изображений. Перечислить основные методы получения двумерных и трехмерных изображений.
5. Краткая характеристика основных методов получения двумерных и трехмерных изображений (рентгенография, ангиография, компьютерная томография, МР томография, ультразвуковой метод, радионуклидные исследования).
6. Общая схема радиологических методов получения изображения.
7. Цифровая обработка медицинских изображений: цели и преимущества. Реконструкция объемного объекта.
8. Рендеринг. Элементарные единицы изображения (пиксель, воксель). Этапы конвейера визуализации объема. Основные модели компьютерного кодирования объемных данных: бинарная воксельная, полутоновая воксельная, обобщенная воксельная, интеллектуальные объемы.
9. Основные методы сегментации для 3D медицинских изображений. Методы на основе точек, на основе границ, на основе областей.
Вопросы, вынесенные на самостоятельное изучение:
1. Аналоговые и матричные (цифровые) изображения. Формирование матричных изображений.
2.Рендеринг поверхностей.
3.Реконструкция поверхности из объема.
4.Закраска.
5.Сканирование объема.
6.Закраска поверхностей.
7.Плоскости разрезов.
8.Интегральная проекция и проекция максимальных интенсивностей.
ТЕМА 6
Нанотехнологии
План:
1. Историческая справка.
2. Нанотехнология как наука: определение, задачи, практические аспекты.
3. Наночастицы
4. ДНК-нанотехнологии.
5. Наномедицина
Нанотехнологии - ключевое понятие начала XXI века, символ новой, третьей, научно-технической революции. Это "самые высокие" технологии, на развитие которых ведущие экономические державы тратят сегодня миллиарды долларов. По прогнозам ученых нанотехнологии в XXI веке произведут такую же революцию в манипулировании материей, какую в ХХ веке произвели компьютеры в манипулировании информацией. Их развитие открывает большие перспективы при разработке новых материалов, совершенствовании связи, развитии биотехнологий, микроэлектроники, энергетики и здравоохранения. Среди наиболее вероятных научных прорывов эксперты называют значительное увеличение производительности компьютеров, восстановление человеческих органов с использованием вновь воссозданной ткани, получение новых материалов, созданных напрямую из заданных атомов и молекул, а также новые открытия в химии и физике. Развитие нанотехнологий произведет к революционным изменениям и в информатике как за счет преобразования ее технической базы (компьютеров и микропроцессорной техники), так и за счет трансформации круга решаемых задач.
Историческая справка.
Эта отрасль знаний относительно молода и насчитывает не многим более столетия. Первым ученым, использовавшим измерения в нанометрах, принято считать Альберта Эйнштейна, который в 1905 году теоретически доказал, что размер молекулы сахара равен 1 нм.
Первые теоретические исследования, положившие начало разработке инструментального обеспечения нанотехнологий, связаны с решением уравнений Шредингера. Уникальное свойство, характерное для квантовых частиц, заключается в их способности проникать через преграду, даже когда их энергия ниже потенциального барьера, соответствующего данной преграде. Электрон, встретив на своем пути преграду, для прохождения которой требуется больше энергии, чем есть у него, не отразится от нее, а с потерей энергии (как волна) преодолеет эту преграду. Открытое явление, названное "туннельным эффектом" (туннелированием), позволило объяснить многие экспериментально наблюдавшиеся процессы. В 1939 году был создан электронный микроскоп, ставший прообразом нового поколения устройств, которые позволили заглянуть в мир нанообъектов.
В 1968 году были разработаны теоретические основы нанообработки поверхностей, а пять лет спустя были проведены первые теоретические квантово-химические расчеты наномолекулы фуллерена и доказана ее стабильность.
Современный вид идеи нанотехнологии начали приобретать в 80-е годы XX века в результате исследований Э. Дрекслера, работавшего в лаборатории искусственного интеллекта Массачусетского технологического института. Дрекслер выдвинул концепцию универсальных молекулярных роботов, работающих по заданной программе и собирающих любые объекты (в том числе и себе подобные) из подручных молекул.
Исследования по совершенствованию инструментального обеспечения нанотехнологий вышли на новый уровень, когда в 1981 году немецкие физики К. Бинниг и Э. Руска, а также швейцарец Г. Рорер из Цюрихской лаборатории компании IВМ испытали туннельный микроскоп. Сканирующий туннельный микроскоп позволил построить трехмерную картину расположения атомов на поверхностях проводящих материалов. С помощью такого микроскопа стало возможным "захватить" атом с токопроводящей поверхности и поместить его в нужное место, то есть манипулировать атомами, а, следовательно, непосредственно собирать из них любое вещество. Сканирующий туннельный микроскоп содержит миниатюрный зонд - тончайшую иглу из золота, конец которой состоит из единственного атома. Игла скользит по исследуемой поверхности образца, приближаясь к нему на расстояние около одного нанометра. На поверхности иглы возникает небольшой положительный заряд, поэтому электроны с поверхности образца переходят на зонд. При этом зонд не соприкасается с поверхностью, хотя и максимально приближен к ней, т.е. имеет место туннельный эффект. Зонд сканирует поверхность, перемещаясь над образцом при помощи специальных миниатюрных двигателей, способных задавать шаг вплоть до 0,01 нм. При этом фиксируется изменение величины туннельного тока (потока электронов через зонд), которое преобразуется в изображение поверхности.
В 1986 году Г. Бинниг разработал сканирующий атомно-силовой микроскоп. Такой микроскоп, в отличие от туннельного, может взаимодействовать с любыми объектами, а не только с токопроводящими материалами. Вместо туннельного тока в атомно-силовом микроскопе измеряют силу ван-дер-ваальсового отталкивания зонда от поверхности образца. Зонд имеет нанометровые размеры и закреплен на микропружине - кантилевере. Силовое взаимодействие конца зонда с изучаемым нанообъектом приводит к изгибу кантилевера, который обычно детектируется с помощью специальной оптической системы.
В 1991 году были открыты углеродные нанотрубки. В 1992 году Э. Дрекслер на научном уровне рассмотрел задачи практического применения молекулярных нанотехнологий в новом научно-практическом направлении, которое следует назвать "практическая нанотехнология". Это дало мощный толчок к началу применения нанотехнологических методов в промышленности. В 1994 году стали появляться первые коммерческие материалы на основе наночастиц - нанопорошки, нанопокрытия, нанохимические препараты и т.д. Началось бурное развитие прикладной нанотехнологии.
В 2004 году углеродная трубка была соединена с ДНК, и впервые получен единый наномеханизм, который открыл дорогу развитию бионанотехнологий.
Дата добавления: 2018-11-24; просмотров: 356; Мы поможем в написании вашей работы! |
Мы поможем в написании ваших работ!