Система дорожного весового контроля СДК.А, поосные весы автомобильные, взвешивание автомобилей
Смотрите также:
Научно-исследовательская и производственно-внедренческая фирма «ТЕНЗОР» является разработчиком и изготовителем систем дорожного контроля СДК.А (Системы СДК.А) большегрузных автотранспортных средств, используемых в качестве весоизмерительного оборудования (поосных весов автомобильных) на автоматизированных стационарных пунктах (АСПВК), осуществляющих весовой контроль при транспортировке и перевалке автомобильных грузов, которые перевозятся автомобильным транспортом по дорогам в различных регионах Российской Федерации.
В комплектность в системы СДК.А входят:
- грузоприемное весоизмерительное устройство (ГУ) с тензометрическими датчиками силы, тензоусилителем, блоком аналого-цифрового преобразования сигнала и программируемым контроллером предварительной обработки данных;
- система компьютерной видеорегистрации с одной или двумя цветными цифровыми или IT-видеокамерами в изотермических кожухах, устройствами трансляции и обработки видеосигнала; кабелями электрического питания и связи;
- система распознавания госномера, а также автоматической экспресс-идентификации автотранспортных средств с помощью smart card или электронных ключей доступа touch-memory;
- программно-аппаратный комплекс компьютерного управления движением автотранспорта на грузоприемном устройстве с помощью светофоров и громкоговорящего акустического оборудования;
- измерительно-вычислительный комплекс на базе персонального компьютера с печатающим устройством и источником бесперебойного питания; прикладное и системное программное обеспечение.
Технические характеристики Системы СДК.А:
Наибольшая допускаемая нагрузка, т | 30 |
Наибольший предел взвешивания, т | 20 |
Наименьший предел взвешивания, т | 1,5 |
Диапазон измерения | от 1 до 90 |
скорости автомобиля, км/час | |
Диапазон измерения межосевых | от 0,5 до 12 |
расстояний, м | |
Размеры грузоприемного модуля,мм: | |
длина: | 4930 |
ширина: | 1650 |
высота: | 390 |
Масса грузоприемного модуля,кг: | 2400 |
Пределы допускаемой погрешности измерения: | |
нагрузки на ось в статике, % | 1 |
массы автомобиля в статике, % | 1 |
нагрузки на ось в движении при скорости: | |
от 1 до 6 км/час, % | 1 |
от 7 до 20 км/час, % | |
свыше 20 км/час, % | 8 |
межосевых расстояний, % | 4 |
Диапазон рабочих температур, С °: | |
грузоприемный модуль | от -40 до +50 |
компьютер | от +15 до +30 |
Климатические условия | не ограничены |
Системы СДК.А оборудуются прецизионными тензометрическими датчиками растяжения ТД-10 повышенной надежности, работающими в условиях полного заполнения грузоприемного модуля водой, стабилизированных по точности в широком диапазоне температур, регистрируемых на территории Российской Федерации.
Шарнирно подвешенная на датчиках растяжения платформа ГУ обеспечивает статическую определимость конструкции, делая её нечувствительной к воздействию тангенциальных усилий (столь пагубных при использовании, например, датчиков сжатия, применяемых в большинстве известных весов для взвешивания автомобилей) и в значительной мере вандалоустойчивой, что обеспечивает работоспособность механической конструкции до 20 лет.
Высокая точность датчиков ТД-10 позволила нам впервые в отечественной практике создать на их основе весоповерочный комплекс СТД.БП, используемый для безгирной градуировки и поверки систем СДК.А взамен образцовых гирь при проведении приемо-сдаточных, периодических, типовых и других видах поверочных испытаний.
Грузоприемное весоизмерительное устройство имеет специальное фундаментное основание, обеспечивающим надежный дренаж проникающих вод, с возможностью оперативного свободного доступа к узлам измерения силы и электронике для контроля, обслуживания или замены, которые благодаря применению в них датчиков растяжения не требуют существенной разборки или демонтажа конструкции.
Система СДК.А фирмы «Тензор» постоянно совершенствуется, в настоящее время выпускается четвертая модификация, имеющая ряд особенностей, отличающих её от других аналогичных систем.
Грузоприемное устройство, монтируемое в дорожную одежду, содержит программируемый микропроцессорный модуль, осуществляющий обработку получаемых с тензодатчиков динамических осциллограмм проезда до уровня основных технических параметров регистрируемого при проезде транспортного средства.
Обработанные данные помехозащищены, передаются по кабелю связи на расстояние до 1000 м и поступают на измерительно-вычислительный комплекс СДК.А,
где осуществляется регистрация, идентификация, анализ и управление движением транспорта на АСПВК и формирование необходимых платежно-проездных документов на ТС-нарушителей.
Работа всего комплекса выполняется под постоянным контролем встроенной подсистемы компьютерной самодиагностики технического состояния и работоспособности основных узлов, блоков и компонентов системы СДК.А.
НИПВФ «Тензор» поставляет комплексы весоизмерительного (весов автомобильных) и иного вспомогательного оборудования и услуг для стационарных пунктов весового контроля, начиная с 1994 года.
Такие пункты оснащаются системами весового контроля СДК.А, которые регистрирует изображение, дату и время проезда; измеряют нагрузки и точный вес, межосевые расстояния, скорость, госномер и марку автомобиля. Определяют коэффициент загрузки, создают электронный архив зарегистрированного транспорта; производят оценку интенсивности и объема перевозок.
Системы осуществляют селекцию транспортного потока, ведется статистический анализ, по результатам которого система строит графики интенсивности и скоростного режима движения автотранспорта, загруженности машин, произведенной оплаты, типам автомобилей и пр. за день, месяц, год.
Для постов весового контроля, размещенных на автомагистралях, на встроенной электронной карте местности фиксируется маршрут движения по федеральным, региональным и местным автодорогам, по которому рассчитывается оплата с учетом грузоподъемности дорог, мостов и инженерных сооружений.
Осуществляется идентификация автомобилей и прицепов (отечественных и зарубежных) на соответствие техническим правилам и нормам эксплуатации, которые внесены в систему.
При проезде большегрузного транспорта разработанный комплекс автоматически устанавливает событие Административного правонарушения (АП) правил проезда: фиксирует весовые параметры, дату, время, распознает госномер и идентифицирует владельца по базе регистрационных данных ГИБДД для выдачи «Акта о превышении транспортным средством установленных ограничений по массе и осевым нагрузкам». Данные Акта передаются в региональный и/или федеральный центр, для печати и рассылки требований на уплату штрафа по факту выявленного АП (по аналогии со штрафами за нарушение скоростного режима).
Апробация и правовая защита. Новизна и оригинальность конструкции защищены патентом Российской Федерации N 2055453. Системы весового контроля прошли полный цикл Государственных испытаний, внесены в Госреестр, получены Сертификаты Российской Федерации NN 2253, 5882, 5883, 7083, 10446, 51469.
НИПВФ «Тензор» аттестован на право изготовления систем весового контроля, имеет лицензии Госстандарта РФ N 0146, 0374, 0535, 05232. Системы экспонировались на Европейской выставке-ярмарке «Roads and Traffic, 1995» и удостоены Диплома ярмарки.
Автоматизированные комплексы обработки автомобильных грузов на базе систем весового дорожного контроля СДК.А награждены дипломами Всероссийской выставки «Муниципальное хозяйство-2000», выставок «Коммунальное хозяйство-2000», «Промышленный потенциал Юга России-2004», международных выставок «WasteTech-2001», «Energy and Resource Savings-2002», «Доркомэкспо-2002», «WasteTech-2003», “WasteTech-2005”, “Транспорт: системы безопасности и телекоммуникации-2005”, «WasteTech-2007», IV Межрегиональный форум «Малый бизнес: инновации и развитие-2007», VII Московский Международный салон инноваций и инвестиций-2007 (серебряная медаль), Первой Южной венчурной ярмарки-2008, Международная выставка импортных товаров стран Северо-Восточной Азии–2009 (г. Шеньян, Китай), IX Международный форум «Предпринимательство Юга России: инновации и развитие-2009», «Интеграция фундаментальных и прикладных исследований в интересах Южного Федерального округа (наука-производству)-2009», Х Юбилейный Московский международный инновационный форум «Точные измерения — основа качества и безопасности-2014» (ВВЦ, Москва).
Специалистами «Тензора» системы весового контроля были представлены в Департаменте транспорта ФРГ (г.Кельн), получили положительное заключение экспертов и рекомендована для использования на автодорогах Германии. В настоящее время НИПВФ «Тензор» рассматривает предложения немецкой стороны по сертификации систем на соответствие требованиям DIN и их поставкам в Германию.
В 1998 году НИПВП «Тензор» по инициативе ITF Intertraffic взаимодействовал с «Daimler-Benz Group» (ФРГ) в области создания интегрированных систем контроля интенсивности и обеспечения безопасности дорожного движения
По результатам конкурсных торгов в 1998, 2002, 2008, 2010-2015 г.г., проведенных Федеральной дорожной службой России и Региональными управлениями автомобильных дорог с участием отечественных и зарубежных производителей, системы весового контроля НИПВФ «Тензор» признаны победителем и наделены преимущественным правом поставки дорожным службам Российской Федерации.
При этом Конкурсной комиссией отмечено, что «…продукция «Тензора» по своим техническим характеристикам превосходит отечественные и зарубежные аналоги, отличается привлекательной ценой, не имеет климатических ограничений и особых требований к монтажу, не требуют высокой квалификации обслуживающего персонала».
В 1999 году по решению Госстандарта и Министерства транспорта Украины подписан договор и производятся поставки систем для оборудования таможенных переходов на украинских границах.
В 2002 году НИПВФ «Тензор» признан победителем проводимых в Финляндии международных конкурсных торгов на поставку систем видеоконтроля и регистрации автотранспорта, по результатам которых подписан контракт и осуществлялись поставки оборудования для финской фирмы «Finnroad Ltd.
В 2003 году по результатам международного тендера подписан Госконтракт и производятся поставки систем СДК.А в Республику Беларусь.
В 2004 году «Тензором» выиграны проводимые Европейским Союзом конкурсные торги и подписан контракт с фирмой «Ramboll» (Дания) на обустройство терминалов по управлению сбором, доставкой, приемкой и захоронением твердых бытовых отходов на полигоне ТБО.
В 2004-2008 годах по контрактам с Федеральной таможенной службой системами весового контроля и видеорегистрации транспортных средств оборудованы пункты пропуска автомашин на пограничных переходах Российской Федерации.
По приглашению немецкой стороны делегация фирмы «Тензор» посетила штаб-квартиру концерна «PAT» в г.Эттингене (Германия) — мирового лидером в области создания автоматических систем наблюдения за транспортом. Производитель промышленных сенсоров для динамического и статического взвешивания и определения габарита автотранспорта, разработчик интегрированных сетей рабочих станций по контролю и безопасности перевозок, развернутых в 11 странах мира.
Составлен протокол о намерениях, согласно которому опыт «PAT» будет использован для развития в России глобальной сети мониторинга дорожного движения на базе стационарных постов весового и визуального контроля фирмы «Тензор». Также намечено использование оригинального программного обеспечения, установленного на постах, для работы с мобильными немецкими сенсорами типа SAW-10 (переносные весы).
Специалисты «Тензора» вступили также в деловое сотрудничество с транснациональной корпорацией «НВМ», ведущим мировым производителем высококачественных тензорезисторов и датчиков силы, поставляемых в 55 стран. Закреплена заинтересованность сторон в налаживании в России производства высокоточных датчиков, которые оснащены разработанными в «Тензоре» тензорезистрами специальной конструкции, изготовленными на заводах корпорации «НВМ».
Внедрение. Начиная с 1994 года, для системы Федеральных автомобильных дорог России НИПВФ «Тензор» выпущено более 500 комплектов систем весового контроля, которые эксплуатируются в различных регионах страны — от Мурманска до Махачкалы, от С.Петербурга до Ю.Сахалинска.
НИПВФ «Тензор» осуществляет монтаж и пуско-наладку систем СДК.А, первичную метрологическую поверку по месту изготовления, гарантийное и послегарантийное обслуживание, обучение персонала. Регулярно производится обновление программного обеспечения с учетом изменений и дополнений, вносимых в процедуру весового контроля автотранспорта, а также совершенствование аппаратных средств.
Режим работы стационарного поста круглосуточный и круглогодичный, все измерения осуществляются на ходу без остановки дорожного движения. Благодаря этому за сутки такой пост может регистрировать до нескольких десятков тысяч транспортных средств. Затраты на оборудование поста весового контроля окупаются в течение 3-4 месяцев.
По данным многолетней эксплуатации в различных регионах России вероятность безотказной работы систем весового контроля составляет 95%, срок службы при условии проведения планово-профилактических мероприятий по обслуживанию — более 10 лет.
Системы СДК.А. являются продуктом высокой технологии, воплощающим лучшие достижения и опыт производства и применения современных средств измерений, методов управления и контроля.
Keras: построить полный тензор того же размера партии, что и данный тензор
UPDATE
sdcbr указывает в своем ответе, что K.ones_like(T)*a
работает для генерации аналогичного тензора, когда-то указанного выше, ключевым моментом является то, что он имеет правильный batch_size
. Чтобы уточнить с помощью другого примера, другой тензор, который мне нужен, выглядит следующим образом
C = [ [a1 a2 ... an]
[a1 a2 ... an]
...
[a1 a2 ... an] ]
Здесь дело в том, что данный вектор [a1 a2 ... an]
сцепляется с самим собой, чтобы вернуть тензор, который имеет тот же batch_size
, что и T
.
Оригинальный Вопрос
Я ищу способ построить тензор в Keras, который имеет тот же самый batch_size
другого тензора T
. Примером может служить
A = [ [a a ... a a]
[a a ... a a]
...
[a a ... a a] ]
где a
повторяется n
раз во втором тусклом и batch_size(T)
раз в первом тусклом.
Если T
имеет определенный batch_size
, то следующий фрагмент работает просто отлично
A = K.constant(np.array([[a]*n]*T.shape[0]))
Однако если T
-это заполнитель, то T.shape[0]
— это None
. Можно было бы ввести тензор в качестве входных данных, но это кажется неэлегантным и оставляет больше места для ошибок пользователя.
Как я буду генерировать тензор этой формы?
python keras tensorПоделиться Источник littlebenlittle 10 августа 2018 в 18:09
2 ответа
- как преобразовать массив numpy в тензор keras
При использовании модели keras для прогнозирования я получил ошибку ниже AttributeError: ‘Tensor’ объект не имеет атрибута ‘ndim’ Причина в том, что Весы-это массив numpy, а не тензор. Так как же преобразовать массив numpy в тензор keras?
- Тензор от TensorFlow до Keras
Я пытаюсь смешать тензор TensorFlow и тензор Keras, используя информацию этого блога : Но проблемы возникают на последнем слое, когда выход должен быть тензором Keras, а не тензором TensorFlow. Есть ли простой способ просто обратиться? Или есть функция Keras, которая делает билинейный размер?…
2
Небольшое дополнение к приведенному выше решению. Если вы используете keras, вам нужно будет обернуть операции tf в слой Lambda, иначе вы получите ошибку при попытке создать модель — что-то вроде отключенного графика. Таким образом, код будет выглядеть следующим образом
import tensorflow as tf
import tensorflow.keras as keras
from tensorflow.keras.layers import Input, Lambda
from tensorflow.keras.models import Model
dim1 = ...
T = Input(size=(dim1,))
A = Lambda(lambda x: tf.multiply(tf.ones_like(x,dtype='int32'), tf.constant(list(range(dim1)))))(T)
out=Other_Layers(A,T)
model = Model(inputs=[T],outputs=[out])
Поделиться Andrey Kite Gorin 19 декабря 2018 в 15:41
2
Вы могли бы использовать что-то вроде K.ones_like(T)
? Независимо от того, как вы это сделаете, форма T
и A
будет полностью определена только тогда, когда вы скормите что-то T
.
Что-то вроде этого:
import keras.backend as K
import numpy as np
K.clear_session()
T = K.placeholder((None, 100))
A = K.ones_like(T)*5
with K.get_session() as sess:
print(A.eval(feed_dict={T: np.random.rand(1, 100)}))
производит:
[[5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5.
5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5.
5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5.
5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5.
5. 5. 5. 5.]]
Если вы хотите , чтобы строки A
были заполнены [0,1,...n-1]
, а n
-количеством столбцов T
, вы можете использовать tf.multiply
для поэлементного умножения.
import keras.backend as K
import tensorflow as tf
import numpy as np
K.clear_session()
T = K.placeholder((None, 100))
A = tf.multiply(K.ones_like(T), K.constant(list(range(T.shape[1]))))
with K.get_session() as sess:
print(A.eval(feed_dict={T: np.random.rand(1, 100)}))
Даст вам
[[ 0. 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17.
18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35.
36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53.
54. 55. 56. 57. 58. 59. 60. 61. 62. 63. 64. 65. 66. 67. 68. 69. 70. 71.
72. 73. 74. 75. 76. 77. 78. 79. 80. 81. 82. 83. 84. 85. 86. 87. 88. 89.
90. 91. 92. 93. 94. 95. 96. 97. 98. 99.]]
Поделиться sdcbr 10 августа 2018 в 18:23
Похожие вопросы:
Создать тензор из n матриц одинакового размера
У меня есть тензор, хранящийся в файле (каждая строка файла-это матрица). В Matlab я хотел бы прочитать каждую строку, а затем создать тензор размера количество строк * размер (матрица в каждой…
ValueError: Тензор ‘A’ должен быть из того же графика, что и Тензор ‘B’
Я использую предварительно обученную модель keras’, и ошибка возникла при вызове ResNet50 (weights=’imagenet’). У меня есть следующий код на сервере flask: def getVGG16Prediction(img_path): model =…
Каков наилучший способ изменить тензор в keras
У меня есть conv-сеть, которая выводит форму тензора w/ (28, 397, 256). Я хочу реструктурировать его, чтобы создать тензор (28*256, 397), сохраняя при этом порядок оси 397, которая является…
как преобразовать массив numpy в тензор keras
При использовании модели keras для прогнозирования я получил ошибку ниже AttributeError: ‘Tensor’ объект не имеет атрибута ‘ndim’ Причина в том, что Весы-это массив numpy, а не тензор. Так как же…
Тензор от TensorFlow до Keras
Я пытаюсь смешать тензор TensorFlow и тензор Keras, используя информацию этого блога : Но проблемы возникают на последнем слое, когда выход должен быть тензором Keras, а не тензором TensorFlow. Есть…
Как добавить тензор обучаемых Весов к тензору Keras?
Следуя разделу Temporal Encoding на странице 5 https:/ / arxiv.org/pdf/1503.08895.pdf (кстати, отличная статья), у меня есть, скажем, N много встроенных векторов размерности M. Так что мой тензор…
Как сгладить тензор в keras?
У меня есть тензор с именем words_conv_bigram_pool , который имеет форму (?, 1, 1, 64) , ? — это размер партии. Я пытаюсь сгладить тензор, чтобы он был (?, 64) на Flatten()(words_conv_bigram_pool) ,…
Как преобразовать Тензор в массив Numpy той же размерности?
Я пытаюсь преобразовать тензор изображения, которое имеет форму (253,223), в массив numpy того же размера, чтобы я мог построить изображение. Я просмотрел документацию, и они предложили мне…
Как преобразовать (None, 10)-мерный тензор в (None, None, 10) в Keras?
Я пытаюсь ввести последовательности переменного размера в LSTM. Поэтому я использую генератор и пакет размером 1. У меня есть (sequence_length,) -входной тензор, который встроен и выводит…
Tensorflow построить тензор формы (N*N*K) на основе неизвестного размера партии N
Я пытаюсь построить пользовательскую функцию потерь, которая должна использовать неизвестный размер пакета для построения большего количества тензоров. Размер партии-это dynamic форма ? ….
Как я могу использовать предварительно обученную нейронную сеть с изображениями в градациях серого?
Преобразование изображений в градациях серого в RGB согласно принятому в настоящее время ответу — один из подходов к этой проблеме, но не самый эффективный. Вы наверняка можете изменить вес первого сверточного слоя модели и достичь поставленной цели. Модифицированная модель будет работать как из коробки (с уменьшенной точностью), так и настраиваться. Изменение весов первого слоя не делает остальные весы бесполезными, как предлагают другие.
Для этого вам нужно добавить код, в который загружены предварительно обученные веса. В выбранной вами структуре вы должны выяснить, как получить веса первого сверточного слоя в вашей сети и изменить их, прежде чем присваивать свою 1-канальную модель. Требуемая модификация заключается в суммировании весового тензора по размеру входных каналов. То, как тензор весов организован, варьируется от структуры к структуре. По умолчанию PyTorch: [out_channels, in_channels, kernel_height, kernel_width]. В Tensorflow я считаю, что это [kernel_height, kernel_width, in_channels, out_channels].
Используя PyTorch в качестве примера, в модели ResNet50 от Torchvision ( https://github.com/pytorch/vision/blob/master/torchvision/models/resnet.py ) форма весов для conv1 имеет вид [64, 3, 7, 7]. Суммирование по размерности 1 дает тензор формы [64, 1, 7, 7]. Внизу я включил фрагмент кода, который будет работать с моделями ResNet в Torchvision, предполагая, что был добавлен аргумент (дюймы), чтобы указать другое количество входных каналов для модели.
Чтобы доказать это, я провел три запуска валидации ImageNet на ResNet50 с предварительно подготовленными весами. Существует небольшое различие в числах для прогонов 2 и 3, но оно минимально и должно быть неактуальным после настройки.
- Немодифицированный ResNet50 с изображениями RGB: Prec @ 1: 75,6, Prec @ 5: 92,8
- Немодифицированный ResNet50 с 3-канальными изображениями в градациях серого: Prec @ 1: 64,6, Prec @ 5: 86,4
- Модифицированный 1-канальный ResNet50 с 1-канальным изображениями в оттенках серого: Prec @ 1: 63,8, Prec @ 5: 86,1
def _load_pretrained(model, url, inchans=3):
state_dict = model_Zoo.load_url(url)
if inchans == 1:
conv1_weight = state_dict['conv1.weight']
state_dict['conv1.weight'] = conv1_weight.sum(dim=1, keepdim=True)
Elif inchans != 3:
assert False, "Invalid number of inchans for pretrained weights"
model.load_state_dict(state_dict)
def resnet50(pretrained=False, inchans=3):
"""Constructs a ResNet-50 model.
Args:
pretrained (bool): If True, returns a model pre-trained on ImageNet
"""
model = ResNet(Bottleneck, [3, 4, 6, 3], inchans=inchans)
if pretrained:
_load_pretrained(model, model_urls['resnet50'], inchans=inchans)
return model
Абсолютно черное тело (АЧТ) Тензор — ВЛАНТ-28 Уточнить цену | Абсолютно черное тело (АЧТ) Тензор — ВЛАНТ-28 предназначено для воспроизведения температур в диапазоне -30…+100°C. Технические характеристики Параметры Значения Диапазон воспроизводимых температур от -30 до +100°C,при | Цена: по запросу Производитель: Тензор НПФ, ООО |
Антенны П6-70 и П6-71 Уточнить цену | Прибор ОКТАВА-110А, оснащенный антеннами П6-71 и П6-70, а также опциями E-meter и H-мeter, позволяет проводить измерения напряженности электрического и магнитного полей напроизводстве, на территории жилой застройки и в | Цена: по запросу Производитель: Тензор НПФ, ООО |
Аэродинамическая труба Тензор — АТ-25 Уточнить цену | Аэродинамическая труба Тензор — АТ-25 предназначена для калибровки термоанемометров, механических анемометров, трубок Пито и других датчиков воздушной скорости. Технические | Цена: по запросу Производитель: Тензор НПФ, ООО |
Газоанализатор БИНАР-1П (СЕНСИС-200) Уточнить цену | Переносной газоанализатор автоматический с принудительным отбором проб воздуха «Бинар-1П» предназначен для измерения концентрации содержания вредных и загрязняющих веществ в атмосферном воздухе, воздухе рабочей | Цена: по запросу Производитель: Тензор НПФ, ООО |
Газоанализатор МХ-6 (OLDAM) Уточнить цену | Газоанализатор МХ-6 (OLDAM) предназначен для одновременного измерения до 6 газов – воздух рабочей зоны Nh4,CO2,CO,Cl2, ClO2, h3,HCl,HCN,h3S,NO,NO2,O2,SO2,Ph4 Горючие газы, метан, сумма углеводородов. Комплектация по заказу Диапазоны | Цена: по запросу Производитель: Тензор НПФ, ООО |
Газоанализатор ЭЛАН-СО (50МГ/М3) Уточнить цену | Газоанализатор ЭЛАН-СО (50МГ/М3) предназначен для измерения массовой концентрации одного из компонентов — CO, NO, NO2, SO2, h3S, Cl2, Nh4 или объемной доли О2 (в зависимости от исполнения) в воздухе. Другие компоненты по | Цена: по запросу Производитель: Тензор НПФ, ООО |
Головка радиометрическая Уточнить цену | Предназначена для измерения энергетической освещенности с косинусной насадкой в диапазоне 10-2 — 104 Вт/м2 от произвольно расположенных относительно нее точечных и протяженных источников излучения, а также без | Цена: по запросу Производитель: Тензор НПФ, ООО |
Головка фотометрическая Уточнить цену | Предназначена для измерения освещенности, формируемой естественным и искусственным светом, а также яркости несамосветящихся объектов. Конструкция Датчик выполнен в виде выносной головки с двумя сменными насадками | Цена: по запросу Производитель: Тензор НПФ, ООО |
Измеритель параметро в микроклимата ЭКОТЕНЗОР-МК Уточнить цену | Прибор предназначен для измерения энергетической освещенности в диапазоне длин волн от 0,2 мкм до 25 мкм; а также для измерения метеорологических параметров: температуры воздуха; относительной влажности | Цена: по запросу Производитель: Тензор НПФ, ООО |
Измеритель уровней электромагнитных излучений П3-41 Уточнить цену | Применяется для обнаружения и контроля биологически опасных уровней электромагнитных излучений напряженности, плотности потока энергии и экспозиции для обеспечения выполнения требований Общего Технического | Цена: по запросу Производитель: Тензор НПФ, ООО |
Avocado: многомасштабный метод глубокой тензорной факторизации изучает скрытое представление эпигенома человека | Genome Biology
Avocado использует многомасштабную глубокую тензорную факторизацию
Чтобы получить скрытое представление генома, мы начали с модели тензорной факторизации, используемой PREDICTD. В этой модели тензор трехмерных данных моделируется тремя двумерными матрицами латентных факторов, соответствующих типам клеток, типам анализа и геномным положениям (рис. 1а). PREDICTD объединяет эти скрытые факторы простым способом, извлекая для каждого вмененного значения соответствующие строки из каждой из трех матриц скрытых факторов и линейно комбинируя их с помощью операций обобщенного скалярного произведения.Avocado улучшает этот подход двумя важными способами.
Рис. 1Подход глубинной тензорной факторизации Avocado. a Набор эпигеномных данных можно визуализировать как трехмерный тензор (синий), в котором некоторые эксперименты (белые клетки) еще не проводились. Avocado моделирует тензор по трем ортогональным осям, латентные факторы обучения (серый), которые представляют типы клеток (оранжевым цветом, по 32 фактора каждый), типы анализа (фиолетовым цветом, по 256 факторов в каждом) и геномную ось (красным цветом). , с 25, 40 и 45 коэффициентами для каждого из трех разрешений). b Во время процесса обучения соответствующие срезы из этих трех осей, соответствующие местоположению обучающей выборки в тензоре, объединяются вместе и передаются в нейронную сеть, состоящую из двух скрытых плотных слоев, каждый с 2048 нейронами, для получения окончательного прогноза. (зеленый)
Во-первых, Avocado обобщает PREDICTD так, чтобы связь между данными и скрытыми факторами была нелинейной, путем вставки глубокой нейронной сети (DNN) в архитектуру вместо операции обобщенного скалярного произведения (рис.1б). Отметим, что аналогичные методы «глубокой факторизации» были предложены ранее [10, 11]; тем не менее, Avocado отличается от этих методов важным образом: вместо того, чтобы перемножать три пары латентных факторов и передавать полученные векторы через DNN, Avocado вместо этого объединяет три вектора скрытых факторов для прямого ввода в DNN. Этот более общий подход позволяет Avocado встраивать информацию о типах клеток, типах анализов и положениях генома в скрытые пространства с разными размерностями.
Конкатенация также обеспечивает второе улучшение Avocado по сравнению с PREDICTD, а именно то, что модель принимает многомасштабное представление генома. Avocado использует три набора скрытых факторов для представления генома в разных масштабах: один набор факторов изучается для каждой из 115 241319 геномных координат с разрешением 25 п.н., другой набор изучается с разрешением 250 п.н., а последний набор изучается. при разрешении 5 кбит / с. Эти три шкалы длины представляют собой предварительные знания о том, что важные эпигеномные явления действуют в мелком масштабе (например,g., связывание фактора транскрипции) в масштабе отдельных нуклеосом и в более широком масштабе «доменов». Кроме того, изучая геномные представления в нескольких масштабах, скрытое геномное пространство Avocado может использовать гораздо меньше параметров, чем PREDICTD, требуя только ~ 3,4 миллиарда параметров вместо ~ 11,5 миллиарда для моделирования каждой позиции вдоль генома. В общей сложности Avocado требует только ~ 3,7% из ~ 92,2 миллиарда параметров, используемых в полном ансамбле PREDICTD из восьми моделей тензорной факторизации.
Важным шагом в разработке такой модели, как Avocado, является выбор подходящей топологии модели. Модель авокадо (см. Раздел «Методы») имеет семь структурных гиперпараметров: количество латентных факторов, представляющих типы клеток, типы анализа и три шкалы геномных позиций, а также два параметра (количество слоев и количество узлов в каждом слое). ) для глубокой нейронной сети. Чтобы выбрать эти значения, мы использовали случайный поиск по сетке гиперпараметров, выбрав набор, который лучше всего работает в соответствии с MSE на проверочном наборе с учетом пилотных областей ENCODE, выбранного 1% позиций в геноме человека (дополнительный файл 1).Результаты этого анализа показывают, что среди семи гиперпараметров два, которые контролируют размер глубокой нейронной сети, являются наиболее важными, причем Avocado лучше всего работает с 2 слоями и 2048 нейронами на слой (дополнительный файл 1: рис. S2) . Мы также обнаружили, что использование «выпадения», формы регуляризации, которая включает случайный пропуск некоторых параметров модели на каждой итерации обучения, значительно повышает производительность Avocado (дополнительный файл 2: рис. S1).
Avocado вменяет эпигеномные треки более точно, чем предыдущие методы
Мы начали наш анализ латентного представления Avocado с измерения его способности вменять эпигеномные анализы, сравнивая общую точность Avocado, измеренную среднеквадратичной ошибкой (MSE), с этой ChromImpute и PREDICTD.С этой целью мы оценили все три метода на 1014 треках эпигеномных данных из проекта Roadmap Epigenomics. Вменения из Avocado и PREDICTD были сделаны с использованием подхода пятикратной перекрестной проверки, при котором складки, используемые для Avocado, были такими же, как и для PREDICTD. ChromImpute использовал одноразовую проверку. В каждом случае значения сигналов по всему геному использовались либо для обучения, либо для тестирования. При рассмотрении полного генома мы сначала оценили три подхода с использованием трех показателей эффективности, первоначально определенных Durham et al.[5]: MSEglobal измеряет MSE по полному набору позиций; MSE1obs измеряет MSE на верхних 1% позиций в соответствии с сигналом ChIP-seq; и MSE1imp измеряет MSE на верхних 1% позиций в соответствии с вмененным сигналом. В то время как Avocado и PREDICTD работают одинаково хорошо в соответствии с MSEglobal (нескорректированное двустороннее парное t , значение p = 0,451), Avocado превосходит PREDICTD на обоих MSE1obs ( p, значение = 9,13e -6) и MSE1imp ( p. Значение = 2.60e −10) (таблица 1). Это наблюдение согласуется с наблюдением Durham et al. что PREDICTD может систематически недооценивать значения сигнала, позволяя ему хорошо набирать очки в областях с низким уровнем сигнала, но достигая более низкой точности на пиках. И наоборот, ChromImpute лучше всех работает на MSE1obs (Avocado / ChromImpute p значение = 2.37e -22, PREDICTD / ChromImpute p value = 2.85e -12), но хуже всего на MSE1imp, что предполагает возможность превышения пиков. Кроме того, Эрнст и Келлис предложили шесть других показателей эффективности оценки, которые демонстрируют те же тенденции, что и метрика MSE1imp (дополнительный файл 2: рис.S2). Затем мы сосредоточили нашу оценку на областях, представляющих особый биологический интерес, реализовав еще три показателя эффективности: MSEProm, MSEGene и MSEEnh, которые измеряют MSE условно приписанных треков по всем промоторным областям, телам генов и энхансерам, соответственно (таблица 1). Мы обнаружили, что Avocado превосходит два других метода в MSEProm (Avocado / ChromImpute , значение p = 3,98e -32, Avocado / PREDICTD , значение p = 8,73e-05) и MSEEnh (Avocado / ChromImpute , значение = 1). .72e -30, Avocado / PREDICTD , значение p = 1,50e-04), при этом производительность аналогична PREDICTD на MSEGene (значение p = 0,875). Взятые вместе, эти показатели эффективности показывают, что авокадо может хорошо вменять сигнал как по всему геному, так и в биологически значимых областях (дополнительный файл 2: таблица S1, дополнительный файл 3).
Таблица 1 Оценка ChromImpute, PREDICTD и AvocadoВсе шесть показателей эффективности, перечисленных в таблице 1, рассматривают каждый эпигеномный анализ независимо в каждой геномной позиции.Однако эмпирически многие из этих анализов демонстрируют предсказуемые парные отношения. Например, активирующая метка h4K4me3 и репрессивная метка h4K27me3 имеют тенденцию не совместно локализоваться в пределах одной области промотора. Чтобы измерить, насколько хорошо методы вменения отражают такие попарные отношения, мы количественно оценили три конкретных парных отношения: отрицательная корреляция между h4K4me3 и h4K27me3 в промоторных областях, положительная корреляция между h4K36me3 и RNA-seq в телах генов и отсутствие корреляции между h4K4me1 и h4K27me3. в промоутерских регионах.Кроме того, мы рассмотрели две попарные взаимосвязи между анализами, которые происходят в промоторе и соответствующем теле гена: положительная корреляция между h4K4me3 в промоторах и h4K36me3 в соответствующих телах гена и противоположная для h4K27me3 и h4K36me3. Для каждой пары анализов мы оценили, насколько вмененные треки соответствуют эмпирическим отношениям между анализами (дополнительный файл 4). По всем этим оценкам, мы обнаружили, что Avocado показал наилучшие результаты при восстановлении парных отношений на 2.73 и 39,6% по сравнению с ChromImpute и от 2,89 до 6,64% по сравнению с PREDICTD, причем PREDICTD обычно идет вторым, а ChromImpute идет последним.
Мы предположили, что основной источник ошибок для всех трех методов вменения связан с трудностью прогнозирования пиков, которые возникают в некоторых типах ячеек, но не в других. Соответственно, для каждого анализа мы разделили геномные позиции на те, для которых пик никогда не возникает, те, в которых пик возникает всегда («конститутивные пики»), и те, для которых пик возникает в некоторых, но не во всех типах клеток («факультативный вершины »).Интуитивно мы ожидаем, что алгоритм сможет предсказывать непиковые или конститутивные пики более легко, чем предсказывать факультативные пики. Мы проверяем эту гипотезу, оценивая эффективность каждого из трех методов вменения в положениях генома в хромосоме 20, которые различаются количеством типов клеток, для которых наблюдается пик (см. Раздел «Методы»). Эта оценка состоит из расчета MSE, отзыва (доли истинных пиков, которые приписаны) и точности (доли импулированных пиков, которые являются истинными пиками).Воспроизведение и точность вычисляются путем установления порога либо для основного, либо для вмененного сигнала на значение 1,44, соответствующее значению сигнала p , равное 0,01, и оценки восстановления пиковых вызовов MACS2. Мы можем определить, является ли метод чрезмерным или недостаточным вызовом пика, основываясь на балансе между точностью и отзывом.
Мы обнаружили, что подобная оценка трех подходов условного исчисления объясняет наблюдаемое нами несоответствие между показателями эффективности MSE1obs и MSE1imp.В частности, мы обнаружили, что ChromImpute обычно достигает наивысшего отзыва (косвенно измеряется с помощью MSE1obs) и что Avocado обычно достигает наивысшей точности (измеряется косвенно с помощью MSE1imp) в наиболее изменчивых областях (рис. 2, дополнительный файл 2: рис. S3). ). Интересно, что ChromImpute демонстрирует более высокий отклик, но более низкую точность, чем пороговая обработка сигнала ChIP-seq непосредственно в положениях, которые имеют пик во многих типах клеток. Это наблюдение предполагает, что ChromImpute может вменять более широкие пики, которые при пороговом значении охватывают весь пик, вызванный MACS2.Высокая отзывчивость и низкая точность ChromImpute подтверждают гипотезу о том, что ChromImpute перевыпускает пики и, в частности, может предсказывать пик в положении, которое является пиком в другом типе клеток. Эти результаты также показывают, что Avocado и PREDICTD улавливают разные тенденции в модели, поскольку Avocado обычно имеет более высокий уровень отзыва в факультативных пиках, а PREDICTD имеет более высокий уровень отзыва в конститутивных пиках. Этот вывод предполагает, что можно было бы рассмотреть возможность объединения импутаций из этих подходов, чтобы получить еще более точные измерения.В целом, Avocado обеспечивает баланс между точностью и отзывчивостью, что часто позволяет достичь наилучшего MSE.
Рис. 2Оценка трех подходов вменения в геномных положениях, которые показывают вариации сигнала для разных типов клеток. a Схема разделения геномных локусов на примере четырех типов клеток. Пиковые вызовы MACS2 (выделены серым цветом) суммируются по каждому типу ячеек. Затем геномные локусы оцениваются отдельно на основании количества типов клеток, в которых наблюдается пик. b Каждая панель отображает указанный показатель производительности (ось y ) для различных наборов геномных положений (ось x ) для анализа h4K4me3. Для каждой точки позиции генома выбираются на основе количества типов клеток, в которых пик вызывается в этой позиции, максимум до 127. MSE вычисляется между сигналом h4K4me3 ChIP-seq и соответствующим условно вычисленным сигналом. Точность и отзыв вычисляются путем установления порога вменения на 1,44 и сравнения с узкими пиковыми вызовами MACS2 для соответствующего экспериментального сигнала.На графиках в серии, помеченной как «Дорожная карта», используются экспериментальные данные Дорожной карты, аналогичные пороговым значением 1,44 и по сравнению с вызовами с узким пиком MACS2. c Аналогично b , но с использованием DNAse-seq вместо h4K4me3. Все анализы ограничены хромосомой 20
Скрытое представление Avocado кодирует ортогональные представления данных
Продемонстрировав высокое качество вмененных треков Avocado, мы затем исследовали выученное скрытое представление Avocado.Это представление состоит из отдельных вложений для типов клеток, анализов и геномных координат. Поскольку эти встраивания ортогональны друг другу, например, встраивание типа клеток не зависит от конкретного анализа или набора геномных позиций, мы ожидали, что каждое из них будет захватывать разные аспекты данных.
Сначала мы визуализировали представление промоторов Avocado, используя аннотации из GENCODE v19, и энхансеров, используя набор «надежных энхансеров» FANTOM5, запустив UMAP [12] на их соответствующих геномных встраиваниях (рис.3а). Поскольку каждый функциональный элемент охватывает несколько локусов, мы усредняем значения фактора ± 250 п.н. либо от TSS гена, либо от середины энхансера. На рисунке мы наблюдаем три основных кластера — один, состоящий в основном из промоторов, один из в основном энхансеров, и один, смешанный между двумя. Затем мы охарактеризовали эти кластеры по их эпигеномным сигнатурам. Мы рассчитали среднюю активность h4K4me3, метки, связанной с активными промоторами, и h4K27ac, метки, связанной с активными энхансерами, в окне ± 2 т.п.н. вокруг каждого локуса для всех типов клеток, для которых были доступны экспериментальные данные.Затем мы усреднили эти профили по всем энхансерам в каждом кластере, а затем по всем промоторам в каждом кластере (рис. 3b). Это окно ± 2 кбит / с больше, чем окно ± 250 п.н., используемое для проекции встраивания генома, чтобы дать дополнительный эпигеномный контекст, но мы обнаружили, что проектирование встраивания генома с использованием окна ± 2 кбит / с дало аналогичные результаты (дополнительный файл 2 : Рис. S4). Мы наблюдаем, что промоторный кластер состоит из локусов с высокими уровнями как h4K4me3, так и h4K27ac, что локусы энхансерного кластера демонстрируют высокие уровни h4K27ac, но низкие уровни h4K4me3, и что смешанный кластер имеет низкие средние уровни обеих меток.Для более тщательного исследования локусов, составляющих смешанный кластер, мы затем сгруппировали эпигеномный сигнал этих локусов по всем типам клеток в примеры «высокого» сигнала и «низкого» сигнала и исследовали количество типов клеток, которые были сочтены высоким сигналом (дополнительные файл 5). Мы обнаружили, что смешанный кластер состоял из некоторых локусов, которые демонстрировали высокий сигнал очень специфичным для типа клеток образом, и других локусов, которые демонстрировали низкий сигнал во всех типах клеток. Эти результаты подтверждают, что геномные вложения авокадо фиксируют биологически значимые тенденции по типам клеток и анализам.
Рис. 3Визуализация выученных скрытых представлений Авокадо. a A UMAP-проекция встраиваний генома, обнаруженных в промоторных (синий) и энхансерных (оранжевый) областях. Показана половина всех промоторных областей вместе с равным количеством энхансеров, что составляет примерно одну четвертую от общего количества энхансеров. Показаны три ручных раздела, один с в основном промоторами (85,5%), один с в основном энхансерами (85,9%) и один смешанный (44,9% промоторов и 55,1% энхансеров). b Средние эпигеномные профили h4K4me3 (красный) и h4K27ac (синий) в промоторах и энхансерах в каждом из трех разделов, причем профили расширены на ± 2 т.п.н., чтобы показать дополнительный контекст. c UMAP-проекция встраиваемых материалов для анализа, помеченная их названиями. Цветные метки указывают на обогащение транскрибируемых областей (зеленый), ассоциацию с активной экспрессией (розовый) или ассоциацию с репрессирующей экспрессией (оранжевый). Метки, которые недостаточно охарактеризованы, окрашены в серый цвет. d UMAP-проекция вложений типов клеток, где каждый тип клеток был окрашен в соответствии с его анатомическим типом
Затем мы исследовали структуру вложений анализов. Хотя модификации гистонов играют разные роли в регуляции транскрипции генов [13–16], мы обнаружили, что проекция UMAP встраиваний анализов способна резюмировать несколько высокоуровневых тенденций (Fig. 3c). Например, ассоциированные с транскрипцией метки h4K36me3, h4K79me2, h4K79me1 и h5K20me1 находятся рядом друг с другом.Точно так же многие метки, связанные с активной экспрессией генов, такие как моно-, ди- и три-метилирование h4K4, близки друг к другу. Кроме того, h4K27me3 и h4K9me3, которые являются репрессивными метками, группируются вместе от активирующих меток. Эти тенденции, хотя, по общему признанию, основаны на проекции относительно небольшого количества точек, предполагают, что латентные факторы авокадо успешно кодируют некоторые важные аспекты биологии модификации гистонов.
Наконец, мы запустили UMAP для встраивания типов ячеек и аннотировали каждый тип ячеек его «анатомическим типом», как определено в компендиуме Roadmap (рис.3d). Мы наблюдаем отчетливую группировку типов клеток по анатомии. Более того, связанные типы ячеек, такие как iPSC и ESC, лежат рядом во встроенном пространстве. Интересно, что несмотря на то, что оба они находятся в костном мозге, гемопоэтические стволовые клетки (HSC) лежат рядом с кровяными клетками в проекции, а мезенхимальные стволовые клетки — нет. Интересно, что плюрипотентные стволовые клетки располагаются на одной стороне проекции, в то время как дифференцированные клетки группируются вдали от них, что позволяет предположить, что наше встраивание также может улавливать некоторые аспекты клеточной дифференцировки.Эти результаты подтверждаются прямым исследованием евклидовых расстояний, используемых для построения графика, который показывает похожие кластеры по типу анатомии (дополнительный файл 2: рис. S5).
Скрытое представление Avocado облегчает выполнение множества задач прогнозирования
Показав, что высокоуровневые тенденции фиксируются в изученном скрытом представлении Avocado, мы затем оценили его полезность в качестве входных данных для моделей машинного обучения для задач, для которых представление не было специально обучено для (Рис.4). Этот подход «трансферного обучения» успешно использовался в других областях, таких как обработка естественного языка [17] и компьютерное зрение [18], и в более общем плане был описан Паном и Янгом [19]. Хотя многие методы можно описать как трансферное обучение, мы используем этот термин для обозначения обучения модели для одной задачи и последующего применения модели (или ее компонентов) к некоторым другим задачам. В частности, мы предполагаем, что латентное представление Avocado может служить заменой эпигеномных данных в качестве входных данных для моделей машинного обучения в различных задачах прогнозирования генома.Одна из причин, по которой переносное обучение может быть полезным в этом случае, заключается в том, что многие геномные феномены связаны с эпигеномными сигналами, и поэтому представление, обученное предсказывать эти сигналы, также, вероятно, будет связано с этими явлениями.
Рис. 4Процедура оценки каждой задачи. Для каждого типа ячеек и комбинации набора функций выполняется 20-кратная перекрестная проверка, и возвращается MAP для всех 20 крат. При каждой оценке классификатор дерева решений с градиентным усилением обучается на 18-ти кратных уровнях, сходимость отслеживается на основе производительности в 19-й кратности, а производительность результирующей модели оценивается в 20-й кратности
Затем мы исследовали, существует ли скрытая Представление неявно кодирует четыре различных типа важной биологической активности: экспрессия генов, взаимодействия промотор-энхансер, время репликации и часто взаимодействующие области (FIRE).Эти задачи охватывают множество биологических явлений и источников данных, чтобы гарантировать надежность наших результатов. Для каждой задачи мы обучаем управляемую модель машинного обучения (см. Раздел «Методы»), используя один из семи наборов функций: (1) все доступные тесты ChIP-seq для рассматриваемых типов клеток, (2–4) набор из 24 анализов, рассчитанных с помощью каждого из трех методов, (5) факторы геномного положения из единой модели ансамбля PREDICTD, которая выделена на Рисунке 3 из Durham et al. [5], (6) факторы геномного положения в латентной репрезентации Avocado или (7) полный набор из 1014 ChIP-seq и DNase-seq анализов, доступных в компендиуме Roadmap (рис.4). Мы включаем полный набор анализов из компендиума Roadmap в качестве базового набора функций, потому что латентное представление Avocado изучается из этого полного набора, что позволяет нам проверить нашу гипотезу о том, что изученное представление сохраняет клеточную вариацию, удаляя при этом избыточность и технический шум. Кроме того, мы включаем изученное латентное представление PREDICTD, чтобы исследовать его полезность по сравнению со скрытым представлением Avocado. Наконец, мы сравниваем эти модели с базовым уровнем большинства, где наш прогноз для каждой выборки является просто наиболее распространенной меткой.Мы предполагаем, что если латентное представление хорошо кодирует эти явления, модели, обученные с использованием латентного представления в качестве входных данных, будут превосходить модели, обученные с использованием других наборов функций. Обратите внимание, что скрытое представление Avocado извлекается из модели, обученной на полном наборе данных Roadmap. Для прогнозирования экспрессии генов, времени репликации и FIRE мы используем классификатор с градиентным бустом из-за широкого успеха этой техники в соревнованиях по машинному обучению [20, 21], с частичным списком лучших результатов на соревнованиях Kaggle, доступным на https: / /немного.ly / 2k7W3Jh.
Экспрессия гена
Состав модификаций гистонов, присутствующих в промоторной области гена, может служить предиктором того, экспрессируется ли этот ген, как измерено с помощью анализов RNA-seq или CAGE. Соответственно, несколько предыдущих исследований показали, что модели машинного обучения могут изучать ассоциации между этими гистоновыми метками и экспрессией генов. Поскольку эксперименты с RNA-seq достаточно дешевы, чтобы их можно было проводить на любом интересующем типе клеток, типичная цель построения модели машинного обучения состоит не в том, чтобы заменить RNA-seq, а в том, чтобы лучше понять механизм экспрессии генов.Хотя может быть трудно объяснить этот механизм взаимодействием сложных латентных факторов, хорошее выполнение этой задачи указывает на то, что сложная регуляторная информация, состоящая из множества эпигеномных меток, кодируется в латентных факторах. Кроме того, предсказатель экспрессии генов может быть полезен в настройках генерации гипотез, чтобы помочь в расстановке приоритетов потенциальных экспериментов с последовательностью РНК или в исследовании поведения экспрессии небольшого количества генов во многих типах клеток, для которых были созданы эпигеномные данные.Эти исследования подошли к проблеме либо как к задаче классификации, где цель состоит в том, чтобы предсказать пороговый сигнал RNA-seq или CAGE-seq [22, 23], либо как к задаче регрессии, где цель состоит в том, чтобы предсказать RNA-seq или Сигнал CAGE-seq напрямую [24].
Мы подходим к предсказанию экспрессии гена как к задаче классификации и оцениваем способность различных наборов признаков, полученных из промоторной области гена, предсказывать, экспрессируется ли этот ген. Эта оценка выполняется в 20-кратной настройке перекрестной проверки в каждом типе ячеек индивидуально, и мы сообщаем о средней средней точности (MAP), которая является одним из методов расчета площади под кривой точности-отзыва по всем 20-кратным значениям. .Гены считаются активными в клетке, если среднее значение нормализованного числа считываний из эксперимента с последовательностью РНК по телу гена больше 0,5 (см. Раздел «Методы»).
Мы обнаружили, что латентные факторы авокадо дают лучшие модели для 34 из 47 типов клеток (рис. 5a, дополнительный файл 2: рис. S6 и таблица S2). В 11 из 13 оставшихся типов клеток (из 47 в общей сложности) модели, обученные с использованием латентных факторов авокадо, побеждают только те, кто обучен с использованием полного компендиума Roadmap, и в двух типах клеток (E053 и E054; полученные из коры и культивируемые клетки нейросферы ганглиозного возвышения), авокадо также побежден моделями, обученными с использованием вмененных эпигеномных меток ChromImpute.Ни в одном типе ячеек модели, обученные с использованием первичных данных, типичных входных данных для этой задачи прогнозирования, превосходят модели, обученные с использованием скрытого представления Avocado (нескорректированный двусторонний парный тест t p , значение 4,62e -153), выполняя хуже на 0,005–0,148 MAP. Кроме того, модели, построенные с использованием скрытого представления Avocado, превосходят модели, построенные с использованием скрытого представления PREDICTD для каждого типа ячеек, в диапазоне от улучшения на 0,002 до улучшения на 0.087 ( p значение 3.86e −101). В целом модели, построенные с использованием латентных факторов Avocado, работают на 0,006 MAP лучше, чем модели, построенные с использованием полного компендиума Roadmap ( p , значение 9,75e −21), и только на 0,001 MAP хуже, в среднем, в тех 13 типах ячеек, где они работать хуже. Хотя это улучшение поначалу кажется незначительным, мы отмечаем, что все наборы функций дают модели, которые очень хорошо работают в большинстве типов клеток, что позволяет предположить, что есть типы клеток, для которых прогноз экспрессии генов прост, а для которых — затруднительно.Соответственно, если сосредоточиться на типах ячеек, прогнозирование которых затруднено, мы замечаем, что разница в производительности между наборами функций более выражена. Действительно, когда мы рассматриваем семь типов клеток, у которых основная базовая линия является самой низкой, мы обнаруживаем, что модели, обученные с использованием латентных факторов Avocado, превосходят модели, обученные с использованием полного компендиума Roadmap, в среднем на 0,026 MAP и модели, построенные с использованием только измерений Roadmap для конкретный тип ячеек на 0,107 MAP. Эти результаты показывают, что модели, построенные с использованием скрытого представления Avocado, превосходят любой другой рассматриваемый набор функций или сравнимы с ним.
Рис. 5Производительность каждого набора функций при использовании для задач геномного прогнозирования. В каждой задаче модель контролируемого машинного обучения оценивается отдельно для каждого типа ячеек с использованием 20-кратной стратегии перекрестной проверки, при этом сообщается средняя средняя точность и стандартная ошибка среднего значения отображается на полосах ошибок. Каждая задача рассматривает только геномные локусы в хромосомах с 1 по 22. Задачи — предсказание ( a ) экспрессируемых генов, ( b ) взаимодействий промотор-энхансер, ( c ) время репликации и ( d ) FIRE.На панели и окраска соответствует стандартной ошибке со средней средней точностью, расположенной посередине, тогда как на других панелях средняя средняя точность показана в виде цветной полосы со стандартной ошибкой, показанной черными полосами ошибок. Статистическая значимость различий, наблюдаемых на этом рисунке, оценивается в дополнительном файле 2: Таблицы S2-5
. Чтобы подтвердить эти результаты, мы переформулировали проблему, сделав ее задачей регрессии, удалив пороговое значение для значений RNA-seq, используемых для генерации двоичных данных. этикетки.Мы наблюдали те же тенденции, что и в задаче классификации: латентные факторы авокадо дают лучшую модель для 27 из 47 типов клеток, полный компендиум Roadmap дает лучшую модель для 19 из 47 типов клеток, а ChromImpute дает лучшую модель в одном тип ячейки (дополнительный файл 2: рис. S7). В каждом типе клеток латентные факторы авокадо превзошли по эффективности, используя только эпигеномные данные, специфичные для конкретного типа клеток.
Взаимодействия промотор-энхансер
Один из многих способов, которыми экспрессия генов регулируется в линиях клеток человека, — это потенциально дальнодействующие взаимодействия промоторов с энхансерными элементами.Физические взаимодействия промотор-энхансер (PEI) можно экспериментально идентифицировать с помощью методов на основе 3C, таких как Hi-C или ChIA-PET. Однако разрешение методов 3C для всего генома может быть проблематичным, потому что контактные карты с высоким разрешением дороги в приобретении. Следовательно, прогнозирование PEI на основе более широко доступных и менее дорогих типов данных было бы чрезвычайно ценным. Соответственно, был предложен широкий спектр методов прогнозирования PEI (обзор Mora et al. [25]), в том числе те, которые объединяют энхансеры с промоторами с использованием расстояния вдоль генома [26], которые используют корреляции между эпигенетическими сигналами в промоторе. и энхансерные области [27–29], и которые используют подходы машинного обучения, основанные на эпигенетических характеристиках, извлеченных как из промоторных, так и из энхансерных областей [8].
Мы рассматриваем задачу прогнозирования физических PEI как задачу контролируемого машинного обучения с использованием функций, полученных как из промоторной, так и из энхансерной областей. Мы используем набор PEI, которые изначально были созданы для обучения TargetFinder [8], модели машинного обучения, которая предсказывала, взаимодействуют ли данные пары промотор-энхансер друг с другом, используя эпигеномные измерения, полученные из обоих регионов. Эти PEI соответствуют взаимодействиям ChIA-PET с каждым из четырех типов клеток (HeLa-S3, IMR90, K562 и GM12878) в хромосомах с 1 по 22.Мы дополнительно обрабатываем этот набор данных, чтобы удалить источник систематической ошибки, который был обнаружен после публикации исходного набора данных [30] (дополнительный файл 6). TargetFinder был разработан не для прогнозирования взаимодействий в типах ячеек, для которых не были собраны карты контактов, а для лучшего понимания связей в существующих картах контактов. Точно так же мы обучаем наш классификатор предсказывать PEI внутри каждого типа ячеек, оценивая модель регуляризованной логистической регрессии в настройке перекрестной проверки.Для сравнения мы используем тот же набор реальных и вмененных типов данных, который мы использовали для задачи прогнозирования экспрессии генов.
Мы обнаружили, что модели, обученные предсказанию PEI с использованием латентных факторов авокадо, работают лучше, чем любой другой набор функций, который мы рассматривали (рис. 5b) в IMR-90, GM12878 и HeLa-S3. В K562 использование латентных факторов авокадо уступает только латентным факторам PREDICTD. Эти улучшения средней точности по всему компендиуму Roadmap варьируются от 0.007 в K562 до 0,035 в HeLa-S3 (значения p в диапазоне от 6,97 × 10 −18 до 9,45 × 10 −32 , дополнительный файл 2: таблица S3). Интересно, что скрытое представление PREDICTD также превосходит полный компендиум Roadmap во всех типах ячеек (значение p 2,43 × 10 −22 ).
Время репликации
Геном человека реплицируется в соответствии с программой упорядоченного времени репликации в процессе, который связан с экспрессией генов и тесно связан с трехмерной структурой генома [31, 32].Паттерны времени репликации по геному можно количественно оценить с помощью экспериментальных анализов, таких как Repli-Seq [33], которые можно использовать для разделения локусов на области с ранней и поздней репликацией. Из-за медленно меняющейся природы времени репликации по геному мы решили делать прогнозы ранней и поздней стадии репликации с разрешением 40 кб.
В соответствии с предыдущими задачами, латентное представление авокадо превосходит как первичные, так и условные эпигеномные данные из интересующего типа клеток (рис.5в). Однако, в отличие от предыдущих задач, латентные представления Avocado и PREDICTD работают аналогично друг другу. Хотя латентное представление Avocado дает модели, улучшение которых по сравнению со скрытым представлением PREDICTD является статистически значимым (значение p 0,004, дополнительный файл 2: таблица S4), эффект невелик (средняя точность 0,9453 против 0,9442). Кроме того, модели, в которых используется полный сборник «Дорожная карта», дают наиболее эффективные модели. Взятые вместе, эти результаты предполагают, что использование эпигеномных измерений для нескольких типов клеток может быть информативным для прогнозирования даже для одного типа клеток.Кроме того, похоже, что агрегирование этих скрытых пространств с гораздо более грубым разрешением (от 25 до 40 кб) может принести в жертву ценную информацию.
Часто взаимодействующие области
Трехмерная структура генома может быть охарактеризована экспериментальными методами, которые идентифицируют контакты между парами локусов в геноме высокопроизводительным способом. В частности, анализ Hi-C [34] создает карту контактов, которая кодирует силу взаимодействий между всеми парами локусов в геноме.В рамках типичной карты контактов блоки увеличенных парных контактов, называемые «топологически ассоциирующими доменами» (TAD), сегментируют геном на большие функциональные единицы, границы которых обогащены генами домашнего хозяйства и определенными эпигенетическими метками, такими как фактор транскрипции CTCF [35 ]. Недавно было обнаружено родственное явление, названное «часто взаимодействующими регионами» (ПОЖАР) [9]. Эти области обогащаются для контактов с близлежащими локусами после вычислительного учета многих известных форм смещения в экспериментальных картах контактов.FIREs обычно обнаруживаются внутри TAD, и предполагается, что они обогащены суперэнхансерами [9].
Соответственно, мы исследуем полезность латентного представления авокадо в прогнозировании ПОЖАРОВ. Наш золотой стандарт основан на измерениях Hi-C в семи типах клеток человека с разрешением 40 кб [9]. Мы формулируем каждую задачу как задачу двоичного прогнозирования, классифицируя каждый геномный локус как ОГОНЬ или нет. Обратите внимание, что любая современная прогностическая модель для элементов архитектуры хроматина, вероятно, будет включать данные CTCF, потому что эта метка сильно обогащена структурными элементами.Однако мы не включаем этот фактор в наш набор функций, потому что факторы транскрипции не были включены в сборник дорожной карты и, следовательно, не использовались для обучения модели Avocado. Кроме того, наша цель — не обучить современную модель прогнозирования пожаров, а оценить относительную полезность этих наборов функций.
Результаты прогнозирования FIRE аналогичны результатам задачи синхронизации репликации, при этом модели, обученные с использованием латентных факторов Avocado, превосходят обе модели, обученные с использованием эпигеномных данных, специфичных для конкретного типа клеток ( p , значение 6.13 × 10 −8 ) и скрытых факторов PREDICTD (значение p 2,4 × 10 −4 ) (рис. 5d и дополнительный файл 2: таблица S5). Модели, обученные с использованием полного компендиума Roadmap, превосходят модели, использующие латентные факторы авокадо во всех типах клеток, кроме h2 (значение p 1,85 × 10 −33 ). Это наблюдение предполагает, что включение эпигеномных измерений по типам клеток важно при прогнозировании элементов архитектуры хроматина, как это было для времени репликации, но также предполагает, что агрегирование значений этих факторов по крупным геномным локусам не так информативно, как для прогнозирования. экспрессия генов или взаимодействия промотор-энхансер.
Геномное представление авокадо кодирует большинство пиков
Далее мы стремимся понять, почему скрытое представление авокадо является таким информативным набором функций для разнообразных задач. Хорошо известным недостатком нейронных сетей является то, что их не так легко интерпретировать, как более простые модели, из-за большего количества параметров и нелинейностей, задействованных в модели. Чтобы лучше понять эти модели, недавно появились методы атрибуции признаков как средство понимания прогнозов на основе сложных прогнозных моделей.Эти методы, такие как LIME [36], DeepLIFT [37], SHAP [38] и интегрированные градиенты [39], пытаются количественно определить, насколько важна каждая функция для конкретного прогноза, приписывая ей часть прогноза. Полезным свойством этих атрибутов является то, что они суммируются с результирующим предсказанием или разницей между предсказанием и некоторым эталонным значением.
Мы решили проверить модель авокадо с помощью метода интегрированных градиентов из-за его простоты, чтобы понять роль, которую различные факторы играют в прогнозировании.Когда мы запускаем интегрированные градиенты, входными данными является набор конкатенированных скрытых факторов, которые будут использоваться для прогнозирования в определенной позиции, а выходными данными является атрибуция каждого фактора для этого прогноза, в частности, вмененного сигнала в геномной позиции. для анализа клеточного типа. Однако вряд ли отдельные факторы напрямую соответствуют отдельным биологическим явлениям. Удобно, так как атрибуции суммируются с окончательным прогнозом (за вычетом эталонного значения), мы можем суммировать эти атрибуции по всем факторам, принадлежащим каждому компоненту модели.Эта агрегация позволяет нам разделить предполагаемые сигналы на тип клетки, анализ и три шкалы геномной атрибуции.
При проверке многих геномных локусов большинство пиков кодируется в геномных латентных факторах, в то время как тип клеток и факторы анализа служат в первую очередь для заострения или заглушения пиков. Наглядным примером роли, которую играет каждый компонент, является рассмотрение пары близлежащих регионов в хромосоме 20, где пик h4K4me3 с высоким сигналом приписывается к гораздо более слабому пику GM12878 с очень узким пиком между ними (рис.6а). Внутри условных пиков факторы генома преимущественно усиливают сигнал, тогда как факторы анализа, по-видимому, увеличивают сигнал в сердцевинах обоих пиков, но ослабляют сигнал на боковых сторонах, эффективно заостряя пики. Интересно, что более слабый пик, по-видимому, имеет более выраженный сигнал от скрытых геномных факторов, который смягчается большим отрицательным сигналом от оси типов клеток. Это указывает нам на то, что в этой области наблюдается пик в некоторых типах клеток, но в GM12878 она замалчивается.Чтобы подтвердить, что эта область участвует в пике в некоторых типах клеток, мы изучили ту же область в гладкомышечных клетках двенадцатиперстной кишки (E078, рис. 6b) и наблюдали сильный пик (максимальное значение 3,70 по сравнению с 1,05 в GM12878), который усиливается. факторами типа клетки. Кроме того, в сигнале двенадцатиперстной кишки существует множество более мелких пиков, которые маскируются отрицательной атрибуцией клеточного типа. Это говорит о том, что, хотя тип клеток и факторы анализа могут иметь положительную атрибуцию, они сами не полностью кодируют пики.
Рис. 6Прогнозируемый сигнал h4K4me3 и соответствующие атрибуты для двух типов клеток в одной и той же области хромосомы 20. a Прогноз и атрибуции для GM12878, где высокий пик справа соединен с двумя гораздо меньшими пиками Слева. Многие короткие участки имеют положительную геномную атрибуцию, но отрицательную атрибуцию клеточного типа, которая их маскирует. b Прогнозирование и атрибуция гладкой мускулатуры двенадцатиперстной кишки. Слева теперь предсказывается заметный пик, соответствующий смене отрицательного атрибута типа ячейки на положительный.Те же короткие области, которые ранее были замаскированы атрибутами типа клеток, теперь имеют положительные атрибуции типа клеток и демонстрируют пики в вмененном сигнале.
Далее мы систематически оцениваем атрибуции каждого компонента модели, чтобы лучше понять, как работает авокадо. Наш подход к этому анализу аналогичен подходу к анализу точности методов вменения в регионах клеточной изменчивости. В частности, мы сначала разделяем позиции на интервалы на основе количества типов ячеек, которые показывают пик в этом месте; затем для каждого бина мы вычисляем среднюю атрибуцию в тех типах ячеек, для которых пик есть или не возникает (Дополнительный файл 2: Рис.S8). Таким образом, мы можем анализировать каждый из пяти компонентов модели в каждом анализе. Мы обнаружили, что, когда пики не присутствуют в сигнале, усредненные атрибуты типов клеток одинаково отрицательны для всех анализов и вариабельности сигнала в определенном положении. Кроме того, эти средние атрибуты обычно имеют большую величину в тех вариабельных локусах в типах клеток, для которых нет пика, что позволяет предположить, что факторы клеточного типа участвуют в подавлении этих пиков в результирующих вменениях.Единственный контекст, в котором приписывание среднего типа клеток является положительным, — это когда пики присутствуют в локусах, которые нечасто проявляют пики, предполагая, что факторы типа клетки могут кодировать нечастые пики. Напротив, геномные факторы обычно имеют положительные значения, когда присутствуют пики, с отрицательными значениями, соответственно встречающимися в нечастых пиках и когда пики отсутствуют. Если эти редкие пики являются результатом технического шума, а не реальной биологии, то это указывает на одну причину, по которой геномные факторы часто дают лучшие модели машинного обучения, чем экспериментальные данные.Однако это также предполагает, что геномные факторы могут оказаться бесполезными при идентификации биологических явлений, на которые указывают эти редкие пики. Интересно, что хотя значения атрибуции анализа могут быть как положительными, так и отрицательными, эти атрибуции выше, когда пики не проявляются, а не когда они есть. Непонятно, почему происходит это явление, но это также указывает на то, что геномные компоненты модели являются критическим фактором, определяющим пик авокадо.
Турбулентность: моделирование на подсеточном уровне — Scholarpedia
Моделирование на подсеточном уровне относится к представлению важных мелкомасштабных физических процессов, которые происходят в масштабах длины, которые не могут быть адекватно разрешены на вычислительной сетке.В моделировании турбулентности с использованием больших вихрей подсеточное моделирование (SGS) используется для представления эффектов неразрешенных мелкомасштабных движений жидкости (небольших вихрей, завихрений, вихрей) в уравнениях, управляющих крупномасштабными движениями, которые разрешаются в компьютере. модели. Формулировка физически реалистичных моделей SGS требует понимания физики и статистики масштабных взаимодействий в гидродинамической турбулентности и является открытым вопросом исследования в связи с тем, что турбулентность остается нерешенной проблемой в классической физике.
Моделирование больших вихрей и подсеточное моделирование (SGS)
Турбулентные потоки содержат широкий диапазон возбужденных масштабов длины и времени без четко определенного разделения масштабов. Рисунок 1: Нефильтрованное и отфильтрованное турбулентное поле, показывающее разложение, используемое в моделировании больших вихрей. В моделировании подсеточного масштаба необходимо моделировать влияние разницы между двумя сигналами на динамику крупномасштабного сигнала. Сосуществование сильно связанных флуктуаций на многих масштабах делает моделирование турбулентности одной из самых сложных нерешенных проблем в науке и технике.Тем не менее, моделирование и прогнозирование турбулентности имеет первостепенное значение для многих процессов и приложений потока, начиная от аэродинамики, окружающей среды, геофизической и астрофизической гидродинамики, производства и транспортировки энергии и т. Д. При моделировании больших вихрей (LES) турбулентности, времени и пространства зависимость движений жидкости разрешена до некоторого предписанного масштаба длины \ (\ Delta \. \) Движение разделяется на мелкие и большие масштабы, часто путем пространственной фильтрации поля скорости ядром, \ (G _ {\ Delta} ({\ mathbf x}) \) (Леонард, 1974).Ядро свертки исключает масштабы, меньшие, чем \ (\ Delta \. \). Исключенные масштабы называются перемещениями подфильтра или подсеточного масштаба (SGS) (см. Рисунок 1). Часто используются спектрально резкий фильтр, фильтр Гаусса и прямоугольный или цилиндрический фильтр (точные определения см. В Pope (2000)). Таким образом, отфильтрованная скорость (обозначенная чертой сверху) получается путем свертки \ (\ overline {u} _i = G _ {\ Delta} * {u} _i \. \) Существуют другие подходы к разделению больших и малых масштабов, такие как как расширение поля скоростей с помощью ортонормированных базисных функций.Усечение суммирования может использоваться для определения крупномасштабного поля (проекция , ), а отброшенные моды представляют диапазон движений подсеточного масштаба. Для мод Фурье проецирование эквивалентно применению спектрального отсекающего фильтра.Уравнения, которые должны быть решены в моделировании больших вихрей однофазной гидродинамики несжимаемой жидкости, получены путем фильтрации уравнений Навье-Стокса, и вместе с отфильтрованным уравнением неразрывности они читаются как \ [\ tag {1} \ frac {\ partial \ overline {\ mathbf u}} {\ partial t} + \ overline {\ mathbf u} \ cdot \ boldsymbol {\ nabla} \ overline {\ mathbf u} = — {1 \ over \ rho} \ boldsymbol {\ nabla} \ overline {p} + \ nu \ nabla ^ 2 \ overline {\ mathbf u} — {\ boldsymbol {\ nabla}} \ cdot {\ boldsymbol {\ tau}}, ~~~~~ \ boldsymbol {\ nabla \ cdot} \ overline {\ mathbf u} = 0, \]
, где \ ({\ overline {(\ dots)}} \) представляет свертку с \ (G _ {\ Delta} ({\ mathbf x}) \.\) Тензор напряжений SGS \ ({\ boldsymbol {\ tau}} \) определяется согласно \ [\ tag {2} \ tau_ {ij} = \ overline {u_iu_j} — \ overline {u} _i \ overline {u} _j. \]
Уравнения LES (или отфильтрованные NS) могут быть дискретизированы численно, используя пространственное разрешение порядка \ (\ Delta \. \), Когда \ (\ Delta \) выбрано намного больше, чем масштаб Колмогорова. , \ (\ eta_K \, \) LES обычно намного дешевле, чем прямое численное моделирование (DNS), которое требует разрешения, близкого к \ (\ eta_K \.d_ {ij} = \ tau_ {ij} — \ tau_ {kk} \ delta_ {ij} / 3 \) имеет значение, поскольку градиент его следа может быть поглощен в поле эффективного давления. В следующих разделах \ (\ tau_ {ij} \) будет использоваться для обозначения бесследной части тензора напряжений SGS, если не указано иное.
При рассмотрении турбулентности с помощью переносимого скаляра \ (\ theta (\ mathbf {x}, t) \) — типичные примеры — поля температуры и концентрации — вектор скалярного потока SGS \ (q_i = \ overline {u_i \ theta} — \ overline {u} _i \ overline {\ theta} \) нуждается в закрытии, а если поток химически реагирует, условия производства включают еще более сильные нелинейности (например,г. возникающие в скоростных выражениях Аррениуса с очень жесткой зависимостью от температуры) требуют моделирования, как только они становятся крупнозернистыми (Poinsot & Veynante, 2005). Когда турбулентность существует вблизи твердых границ, часто даже профиль средней скорости показывает характерные масштабы длины, которые слишком малы, чтобы их можно было разрешить. Такое поведение пограничного слоя SGS подразумевает, что требуются модели для напряжения стенки или скорости процессов переноса стенок подсети. Различные подходы к моделированию стен рассмотрены в Piomelli & Balaras (2002).
Основные свойства тензора напряжений подсеточного масштаба
Напряжение SGS — симметричный тензор. Он инвариантен к преобразованию Галилея, т.е. если турбулентность рассматривается из систем, движущихся с разными скоростями, тензор SGS должен быть одинаковым. Как надлежащая тензорная величина, она должна преобразовываться из одного кадра в другой, который может вращаться (или вращаться, см., Например, Speziale, 1985) соответствующим образом. Подсеточные модели должны соответствовать этим фундаментальным математическим требованиям.{2/3} \. \) В отличие от напряжений Рейнольдса, напряжение SGS представляет собой флуктуирующую величину турбулентности, то есть сложное зависящее от времени поле \ ({\ boldsymbol {\ tau}} (\ mathbf {x}, t) \. \) Некоторые статистические свойства \ ({\ boldsymbol {\ tau}} \) имеют особое значение для LES для получения реалистичных результатов. Среднее значение тензора напряжений SGS исчезает при изотропной турбулентности, а для сдвиговых течений оно быстро уменьшается и становится незначительным по сравнению с напряжениями Рейнольдса, поскольку масштаб фильтра становится намного меньше интегрального масштаба турбулентности.Таким образом, среднее напряжение SGS не считается очень значительным для LES турбулентности, по крайней мере, вдали от твердых границ.
Наиболее важное статистическое ограничение на статистику \ (\ boldsymbol {\ tau} \) связано с эволюцией кинетической энергии в турбулентности. Лилли (1967) и Леонард (1974) на основе уравнения переноса кинетической энергии турбулентности показали, что член \ (- <{\ tau} _ {ij} \ overline {S} _ {ij}> \) (где \ (\ overline {S} _ {ij} = (\ partial_j \ overline {u} _i + \ partial_i \ overline {u} _j) / 2 \) — разрешенный тензор скорости деформации) представляет собой производство мелкомасштабной кинетической энергии , или утечка кинетической энергии, связанная с большими масштабами, разрешенными в LES.3> +6 <\ tau_ {LL} (\ mathbf {x}) [\ overline {u} _L (\ mathbf {x} + \ mathbf {r}) - \ overline {u} _L (\ mathbf {x} )]> = 6 <\ tau_ {LL} \ overline {S} _ {LL}> r = — \ frac {4} {5} <\ epsilon> r. \]
Он показывает, что двухточечная корреляция между элементами напряжения SGS и приращениями скорости и скоростью диссипации должна быть правильно спрогнозирована для того, чтобы разрешенные моменты скорости третьего порядка были реалистичными. Аналогичные аргументы можно привести для предсказания разрешенной энстрофии (Cerutti et al. 2 \ overline {S} _ {ij}> \) играет решающую роль.{mod} \) был сформулирован Лангфордом и Мозером (1999) при рассмотрении многоточечной функции плотности вероятности разрешенного поля скорости. Они показывают, что достаточно воспроизвести правильное многоточечное условное среднее значение силы SGS, \ (<\ partial_j \ tau_ {ij} \ vert \ overline {\ mathbf V} _1, \ overline {\ mathbf V} _2, \ dots, \ overline {\ mathbf {V}} _ N> \) (где \ (\ overline {\ mathbf {V}} _ 1, \ overline {\ mathbf {V}} _ 2, \ dots, \ overline {\ mathbf {V}} _ N \) — скорости во всех точках потока), чтобы воспроизвести всю статистику разрешенного поля.Лэнгфорд и Мозер (1999) указывают, что теория оптимального оценивания показывает, что такие условные средние также дают оптимальный предиктор (модель), который дает наименьшую квадратную ошибку для заданных доступных данных.
Для эмпирической оценки моделей SGS прогнозы LES, использующей модель, сравниваются с доступными данными. Данные могут быть получены из прямого численного моделирования (DNS) или из экспериментов, обычно в виде Распределение средней скорости и напряжения Рейнольдса, спектры и т. д.. Piomelli et al. (1988) ввел название апостериорных тестов . для таких сравнений, чтобы подчеркнуть, что модель оценивается только после того, как она была реализована в симуляции. Канонические потоки, часто используемые для апостериорных тестов , представляют собой затухающую изотропную турбулентность (данные см. Comte-Bellot & Corrsin 1971, Kang et al. 2003) и русловой поток (например, Kim et al. 1987). В то время как с точки зрения приложения апостериорные тесты считаются окончательным тестом производительности модели из-за интегрированного характера результатов (объединение эффектов дискретизации числового пространства и времени, статистического усреднения и т. Д.{mod} (\ mathbf {x}, t) \, \) или их статистические моменты, что требует данных с высоким пространственным разрешением, которое значительно меньше, чем \ (\ Delta \. \). Для такого анализа Piomelli et al. (1988) придумал название априорных тестов , чтобы подчеркнуть, что в действительности LES не задействованы. Данные для таких исследований могут быть получены с помощью DNS, который позволяет обрабатывать полное трехмерное поле скорости, но ограничивается умеренными числами Рейнольдса (ранние статьи см. В Clark et al. (1979) и Bardina et al.(1980)). Данные также могут быть получены из экспериментов, которые имеют практические ограничения, такие как ограниченное пространственное разрешение, но могут исследовать потоки с высокими числами Рейнольдса (см., Например, Тао и др. (2002) для лабораторных экспериментов и Kleissl и др. (2004) для полевых экспериментов. в атмосферной турбулентности).
Модели с вихревой вязкостью
Традиционно эффекты движений SGS на разрешенных масштабах моделируются по аналогии с молекулярными степенями свободы в (например) кинетической теории газов, в которой потоки импульса линейно зависят от скорости деформации больших масштабов.{ev} = — 2 \ nu_ {sgs} \ overline {S} _ {ij}, \]
где \ (\ nu_ {sgs} \) — (кинематическая) вихревая вязкость. Этот подход соответствует основным требованиям симметрии, галилеевой инвариантности и тензорных преобразований от одной системы отсчета к другой. 2 \ vert {\ overline {S}} \ vert \ overline {S} _ {ij}.{-3/4} \ приблизительно 0,16 \) с использованием известного эмпирического значения постоянной Колмогорова \ (c_K \ приблизительно 1,6 \. \). Этот результат действителен для локально изотропной турбулентности, когда \ (\ Delta \) попадает в инерционный диапазон турбулентности. Численное моделирование изотропной турбулентности с этим значением дает очень реалистичные скорости затухания кинетической энергии и энергетические спектры с реалистичными характеристиками, за исключением близких к граничному волновому числу LES.
Модель Смагоринского предполагает, что существует равновесие между потоком кинетической энергии в масштабе и большими масштабами турбулентности.Во многих приложениях, таких как турбулентность набегающего потока, сталкивающаяся с передней кромкой крыла самолета, турбулентный поток воды через трубу с изменяющимся поперечным сечением или турбулентность с сильной плавучестью, такие условия равновесия не устанавливаются. Чтобы смоделировать развитие во времени мелкомасштабной турбулентности, которая влияет на вихревую вязкость, так называемые модели кинетической энергии используют вихревую вязкость вида \ (\ nu_ {sgs} = c_e \ Delta \ sqrt {e (\ mathbf {x}, t)} \, \) где \ (e (\ mathbf {x}, t) \) — кинетическая энергия SGS.{3/2}} {\ Delta} — \ frac {1} {\ partial x_j} \ left [\ left (\ nu + \ frac {c_e} {\ sigma_e} \ Delta \ sqrt {e} \ right) \ frac {\ partial e} {\ partial x_j} \ right] \]
с двумя дополнительными эмпирическими коэффициентами, числом Прандтля SGS \ (\ sigma_e \) и параметром рассеяния \ (C _ {\ epsilon} \. \) Этот подход включает эффекты памяти и нашел широкое применение, особенно при моделировании атмосферных потоков (Moeng 1984, Mason 1994).
Для моделирования, выполненного в спектральном пространстве, может быть предписана зависящая от волнового числа (спектральная) вихревая вязкость \ (\ nu (k, k_c) \) (Chollet & Lesieur 1981, Schilling & Zhou 2002), которая имеет важное преимущество: позволяет явно контролировать скорость извлечения энергии из любого заданного разрешенного волнового числа \ (k \.\) Как правило, возникает касп, увеличивающий спектральную вихревую вязкость вблизи критического волнового числа \ (k_c = \ pi / \ Delta \. \). Такие модели часто также включают стохастические члены для имитации кинетической энергии обратного рассеяния , явления какая часть энергии передается от мелкомасштабных движений к крупномасштабным. Были предложены другие методы вычисления вихревой вязкости, в том числе модель структурной функции (Lesieur & Metais, 1996), в которой вихревая вязкость записывается в соответствии с \ (\ nu_ {sgs} = C_F \ Delta \ sqrt {D_ { LL}} \) и \ (D_ {LL} (\ mathbf {x}, t) \) — это локально вычисляемая структурная функция скорости второго порядка, а \ (C_F \) — параметр, который может быть выражен через постоянную Колмогорова. .Существует несколько версий, и недавние усовершенствования заменили структурную функцию скорости на структурные функции соответствующих полей скорости, отфильтрованных через фильтр верхних частот, чтобы выборочно отбирать самые маленькие из разрешенных масштабов. 2 \ overline {A} _ {ik} \ overline {A} _ {jk} \) соответственно.Обратите внимание, что \ (G_ {ij} \) основан на нелинейной модели (см. Уравнение (12) ниже), а также обратите внимание, что \ (G_ {ij} \) можно обобщить для неизотропных сеток или фильтров (Vreman 2004 г.). Дальнейшее развитие этих идей можно найти в сигма-модели Nicoud et al. (2011), в котором вихревая вязкость выражается через сингулярные значения тензора \ (G_ {ij} \), то есть надлежащим образом упорядоченные квадратные корни из собственных значений \ (G_ {ij} \). Этот подход дает хорошее пристеночное масштабирование и исчезает для двумерных и двухкомпонентных потоков.\ prime \ partial \ overline {u} _i / \ partial x_k \, \), который включает несколько сильных допущений, таких как пренебрежение давлением и нелинейными эффектами. В сочетании с дополнительными предположениями о разделении масштабов времени решение может быть записано в терминах матричных экспонент (Li et al. 2009), а кратковременное расширение до первого порядка дает замыкание вихревой вязкости для девиаторной части напряжения SGS. тензор. Необходимость различных допущений иллюстрирует ограничения вихревой вязкости с фундаментальной точки зрения.Тем не менее, в практических приложениях LES метод вихревой вязкости очень популярен из-за его надежности, общей простоты реализации и низкой стоимости вычислений. Кроме того, реалистичные результаты могут быть получены при условии реалистичной параметризации вихревой вязкости.
Germano идентичность и динамическая модель
Идентификатор Germano (Germano, 1992) применяется довольно часто, когда грубые нелинейные дифференциальные уравнения в частных производных (PDE) управляют динамикой, скажем, многомасштабных переменных поля \ (q (\ mathbf {x}, т) \.\) Предположим, что нелинейный член в PDE записан как \ (N (q) \), а пространственная крупнозернистость поля в масштабе \ (\ Delta \) обозначается сверткой \ (G _ {\ Delta} * q = \ overline {q} \. \) Для моделирования подсеток требуются модели для невязки \ (\ overline {N (q)} — N (\ overline {q}) \. \) Для уравнений Навье-Стокса нелинейный член \ (N (\ mathbf {u}) = u_iu_j \. \) Идентификатор Germano использует операцию фильтрации тестов в масштабе \ (\ alpha \ Delta \) с \ (\ alpha> 1 \, \), обозначенным свертка, которая действует на поле \ (Q \) согласно \ (G _ {\ alpha \ Delta} * Q = \ widehat {Q} \.\) Идентификация Germano просто читается \ (\ widehat {\ overline {N (q)}} — N (\ widehat {\ overline {q}})) = \ left [\ widehat {\ overline {N (q)}} — \ widehat {N (\ overline {q})} \ right] + \ left [\ widehat {N (\ overline {q})} — N (\ widehat {\ overline {q}}) \ right] \. \) Первые два условия могут быть заменены подходящими моделями, которые зависят от параметров модели, в то время как последний член может быть определен из крупнозернистых (разрешенных) полей. Таким образом, идентичность Germano обеспечивает условие самосогласованности между масштабами до параметров модели с уменьшенным масштабом , определенных от разрешенного диапазона масштабов до неразрешенного диапазона.В случае фильтрованных Навье Стокса и LES идентичность Germano (Germano et al. 1991) обычно записывается как \ [\ tag {8} T_ {ij} = \ widehat {\ tau} _ {ij} + L_ {ij}, ~~ {\ rm where} ~~ L_ {ij} = \ widehat {\ overline {u} _i \ overline {u} _j } — \ widehat {\ overline {u}} _ i \ widehat {\ overline {u}} _ j, ~~ {\ rm и} ~~ T_ {ij} = \ widehat {\ overline {u_iu_j}} — \ widehat { \ overline {u}} _ i \ widehat {\ overline {u}} _ j, \]
Тензор \ (L_ {ij} \) называется тензором разрешенных напряжений (или напряжений Леонарда), а \ (T_ {ij} \) соответствует тензору напряжений SGS, возникающему в масштабе, соответствующем объединенному hat и фильтры бар и .Это соотношение является точным и сохраняется в каждой точке потока и в любое время для всех компонент тензора. Набросок на Рисунке 2 иллюстрирует идентичность, когда записано в терминах среднего значения следа напряжений SGS в различных масштабах (след — это область под спектром). Рисунок 2: Схема энергетического спектра турбулентности, показывающая волновые числа, соответствующие шкалам фильтра \ (\ Delta \) и шкале тестового фильтра \ (\ alpha \ Delta \. \) Идентификация Германо гласит, что \ (\ mathbf {T} = \ mathbf {L} + \ widehat {\ boldsymbol {\ tau}} \.\) Вертикальные линии представляют действие спектрально резкого обрезного фильтра — для других фильтров разделение шкал менее резкое. Динамическая модель Смагоринского основана на тождестве Германо, когда тензоры \ (\ boldsymbol {\ tau} \) и \ (\ mathbf {T} \) записываются в терминах модели Смагоринского Ур. (5) в масштабах \ (\ Delta \) и \ (\ alpha ‘\ Delta \, \) соответственно, где \ (\ alpha’ \ Delta \) — это масштаб, полученный в результате повторного применения двух фильтров. Для спектрального фильтра \ (\ alpha ‘= \ alpha \), а (e.2 \, \) вряд ли удовлетворит точно. В турбулентности это выражение обычно понимается как имеющее только среднее значение, и различные формулировки динамической модели различаются тем, как понимается это условие. Первоначально мотивированный условием правильного рассеяния кинетической энергии, Germano et al. (1991)
записали идентичность Germano, сжимая напряжения с помощью тензора скорости деформации. 2 =
Усреднение обычно выполняется по направлениям статистической однородности потока. Динамическая модель Смагоринского применялась к большому количеству потоков. Модель также может применяться с усреднением по более локализованным областям, таким как объемы, содержащие несколько соседних точек сетки, временные области вдоль временной эволюции жидких частиц (лагранжева динамическая модель Meneveau et al. Et al. 1996) или с использованием теста -фильтрация с использованием различных масштабов для определения возможных масштабных зависимостей коэффициента (Porte-Agel et al.2000).
Поскольку тождество Джермано справедливо для грубой обработки любой нелинейной операции, возможны дальнейшие обобщения. Динамические модели были разработаны для других моделей SGS, таких как скалярные потоки и подсеточная кинетическая энергия (Мойн и др., 1991) и подсеточная скалярная дисперсия (Пирс и Мойн, 1998). Кроме того, динамическая модель может быть расширена за счет включения дополнительных статистических ограничений (Shi et al. 2008). Динамический подход также был реализован You & Moin (2007) для определения коэффициента \ (C_v \) в модели вихревой вязкости Vreman (2004) (см.(7)). Поскольку \ (C_v \) по своей природе менее изменчив в разных регионах потока, You & Moin (2007) предложили глобальное, независимое от положения значение, основанное на условии общего (усредненного по объему) баланса кинетической энергии. Однако, если бы коэффициент действительно не зависел от режима потока, необходимость в динамическом методе не очевидна, поскольку можно было бы ожидать, что результат одной калибровки будет работать повсеместно. Однако, как показано в Nicoud et al. (2011), пространственные вариации, а также зависимость от разрешения наблюдались в модельных коэффициентах этих моделей вихревой вязкости нового поколения.{sim} = C_ {sim} L_ {ij} \]
где \ (L_ {ij} \) определено в формуле. (8) и разные версии модели отличаются масштабом тест-фильтра \ (\ alpha \ Delta \. \) Bardina et al. (1980) использовал \ (\ alpha = 1 \. \) Анализ экспериментальных данных (Liu et al. 1994) предложил \ (\ alpha = 2 \. \). Расширение ряда Тейлора \ (\ overline {\ mathbf {u}} (\ mathbf {x} _0 + \ mathbf {x} ‘) \) вокруг \ (\ mathbf {x} _0 \. \) Затем оценка теста — аналитическая фильтрация приводит к так называемым нелинейным моделям (иногда также называемым моделью Кларка (Clark et al.{-1} * \ overline {\ mathbf {u}} \. \) Когда это заменяется в определении уравнения напряжения SGS. (2), замыкание получается. На практике фильтрацию и обратную фильтрацию можно облегчить с помощью различных итерационных методов, основанных на полиномиальных аппроксимациях ядра фильтра (Adams & Stolz 2001, см. Также подробное обсуждение в Sagaut 2006). Дальнейшее связывание таких подходов с членами разложения в ряд Тейлора показало, что нелинейная модель уравнения (12) можно рассматривать как первый нетривиальный член такого разложения.
Хотя модели подобия, нелинейные модели или модели деконволюции демонстрируют множество реалистичных характеристик по сравнению с реальными полями напряжений SGS в априорных сравнениях , при реализации в моделировании в сочетании с недиссипативными или минимально диссипативными числовыми схемами они, как правило, приводят к нефизическому поведению, которое чаще всего можно объяснить тем, что сами по себе модели недостаточно диссипативны. В контексте моделей подобия и нелинейных моделей это привело к так называемым смешанным моделям , в которых добавлен член вихревой вязкости, т.е.2 | \ overline {S} | \ overline {S} _ {ij}. \]
Такая модель была предложена и использована Zang et al. (1993) и Armenio et al. (2000) в сочетании с динамическим подходом к определению \ (c_s \. \) В контексте моделей деконволюции необходимость в дополнительных диссипативных механизмах была прослежена до того факта, что в LES, помимо фильтрации, есть необратимые потери информации при представлении полей, даже отфильтрованных, на дискретной сетке. Дополнительные сведения об этих проблемах см. В разделе 2 Domaradzki et al.(2002), где показано, что идеальная деконволюция эквивалентна недоразрешенному DNS. Процедура деконволюции не может восстановить все мелкомасштабные поля, и потерянная информация должна быть смоделирована. Это привело к так называемым регуляризованным моделям деконволюции , в которых демпфирующий член (числовой или через член вихревой вязкости) обеспечивает дополнительное извлечение кинетической энергии (Sagaut 2006).
Другие подходы к моделированию напряжений SGS
Были предложены другие классы моделей SGS, такие как решение дополнительных уравнений переноса для полного тензора напряжений SGS (Deardorff, 1973), решение уравнений для функции плотности вероятности (методы Filtered Density Function, , см. Gicquel et al., 2002), или явное построение подсеточных полей скорости на основе, например, мелкомасштабных вихрей (Misra & Pullin, 1997), фрактальных сигналов (Scotti & Meneveau, 1997) или одномерных моделей турбулентности (Kerstein, 2002).
В последнее время предпринимались различные попытки разработать подходы LES, основанные не на грубых уравнениях Навье-Стокса, а на немного других уравнениях импульса, которые имеют более благоприятные математические свойства. Примеры включают так называемую регуляризацию Лере или усредненную по Лагранжу альфа-модель Навье-Стокса (LANS) (см. E.г. Guerts and Holm, 2006 для обсуждения обоих). Тщательные испытания затухающей изотропной трехмерной турбулентности (Guerts et al. 2008) показывают снижение точности при большом числе Рейнольдса на сетке, т.е. когда \ (\ Delta >> \ eta_K \. \)
Другой, принципиально иной подход основан на концепции неявного LES (ILES). Это мотивируется утверждением, что не имеет значения, достигается ли диссипация разрешенной кинетической энергии с помощью функционально выраженных моделей SGS или численной диссипацией, неявной в используемом численном методе.Поскольку существует множество хорошо протестированных числовых кодов, которые использовались в ряде инженерных (например, Fureby & Grinstein, 2002) или астрофизических (Porter et al. 1994) приложений, этот подход был предложен как практическая альтернатива. Подходы, основанные на моделировании SGS (для нескольких приложений см. Grinstein et al. 2007).
Список литературы
- Адамс Н.А. и Штольц (2001) «Методы деконволюции для подсеточных приближений в LES», в Современные стратегии моделирования турбулентного потока (Б.Geurts, редактор), стр. 21-44, издательство Edwards. книга
- Арменио В. и У. Пиомелли (2000) «Лагранжева смешанная подсеточная модель в обобщенных координатах», Flow, Turb. & Гребень. 65 , 51-81. статья
- Bardina J., J.H. Ферцигер и В. Рейнольдс (1980) «Улучшенные подсеточные модели для моделирования больших вихрей, документ AIAA № 80-1357.
- Cerutti S., C. Meneveau & O.M. Knio (2000), «Спектральная и гипервихревая вязкость в турбулентности с высоким числом Рейнольдса», J.Жидкий мех. 421 , 307-338. статья
- Chollet J.P. & M. Lesieur (1981) «Параметризация малых масштабов трехмерной изотропной турбулентности с использованием спектральных замыканий», J. Atmos. Sci. 38 , 2747.
- Р. А. Кларк, Р. А., Дж. Х. Ферцигер и В. К. Рейнольдс (1979) «Оценка подсеточных моделей с использованием точно смоделированного турбулентного потока», J. Fluid Mech. 91 , 1-16 статьи
- Конт-Белло Г.И С. Коррсин (1971) «Простая эйлерова временная корреляция в полных и узкополосных сигналах скорости в генерируемой сеткой изотропной турбулентности», J. Fluid Mech. 48 , 273-337. статья
- Deardorff J.W. (1973) «Использование подсеточных уравнений переноса в трехмерной модели атмосферной турбулентности», ASME J. Fluids Eng. 95 , 429-438.
- Домарадски А., К. Ло и П. П. Йи (2002) «Моделирование крупных вихрей с использованием подсеточной модели оценки и усеченной динамики Навье-Стокса», Теор.Comput. Fluid Dyn. 15 , 421-450. [статья
- Fureby C. & F.F. Гринштейн (2002) «Моделирование больших вихрей в потоках, свободных от высоких чисел Рейнольдса и ограниченных стенками», J. Comp. Phys. 181 , 68-97.
- Джермано М. (1992) «Турбулентность: подход к фильтрации», J. Fluid Mech. 238 , 325-336. статья
- Джермано М., У. Пиомелли, П. Мойн и У. Кэбот (1991) «Модель динамической подсеточной вихревой вязкости», Phys.Жидкости A 3 , 1760-1765. статья
- Госал С., Лунд Т.С., Мойн П. и Аксельволл К. (1995) «Модель динамической локализации для моделирования больших вихрей турбулентных потоков», J. Fluid Mech. 286 , 229–255. статья
- Gicquel L.Y.M., P. Givi, F.A. Jaberi & S.B. Поуп (2002) «Функция плотности с фильтром по скорости для моделирования турбулентных потоков с большими вихрями» Phys. Жидкости 14 , 1196-1213. статья
- Гринштейн Ф.Ф., Л.Г. Марголин и У. Райдер (2007) «Неявное моделирование больших вихрей: вычисление динамики турбулентной жидкости», Cambridge University Press. книга
- Guerts B.J., A.K. Kuczaj & E.S. Titi (2008) «Регуляризационное моделирование для моделирования однородной изотропной затухающей турбулентности с помощью больших вихрей» J. Phys. A: Математика. Теор. 41 , 344008. артикул
- Канг Х.-С., С. Честер и К. Менево (2003) «Затухающая турбулентность в потоке, генерируемом активной сеткой, и сравнение с моделированием крупных вихрей», J.Жидкий мех. 480 , 129-160. статья
- Керштейн А. (2002) «Одномерная турбулентность: новый подход к высокоточному закрытию подсеток моделирования турбулентных потоков», Comp. Physics Comm. 148 , 1-16.
- Ким Дж., П. Мойн и Р. Д. Мозер (1987) «Статистика турбулентности в полностью развитом потоке в канале при низком числе Рейнольдса», J. Fluid Mech. 177 , 133.
- Kleissl J, C. Meneveau & M.B.Парланж (2004) «Полевые экспериментальные исследования динамических моделей Смагоринского в приземном слое атмосферы», J. Atmos. Sci. 61 , 2296-2307. статья
- Колмогоров А.Н. (1941) «Локальная структура турбулентности в несжимаемой вязкой жидкости для очень большого числа Рейнольдса», C.R. Acad. Sci. СССР 30 , 301.
- Langford J & R.D. Moser (1999) «Оптимальные составы LES для изотропной турбулентности», J. Fluid Mech. 398 , 321-346.статья
- Леонард А. (1974) «Энергетический каскад в моделировании больших вихрей турбулентных потоков жидкости», Adv. в области геофизики A 18 , 237-248.
- Li Y., L. Chevillard, C. Meneveau & G. Eyink (2009) «Замыкания на основе экспоненциальной матрицы для турбулентного тензора напряжений подсеточного масштаба», Phys. Ред. E 79 , 016305. артикул
- Lilly, D.K. (1967) «Представление мелкомасштабной турбулентности в экспериментах по численному моделированию», в Proc.Симпозиум IBM по научным вычислениям по наукам об окружающей среде , стр.195.
- Lilly, D.K. (1992) «Предлагаемая модификация метода подсеточного замыкания Germano», Phys. Жидкости A 4 , 633-635. статья
- Лю С., К. Менево и Дж. Кац «О свойствах подобия подсеточных моделей, выведенных из измерений в турбулентной струе», J. Fluid Mech. 275 , 83-119. статья
- Лесье М.& O. Metais (1996) «Новые тенденции в моделировании турбулентности с помощью больших вихрей», Annu. Rev. Fluid Mech. 28 , 45-82. статья
- Мейсон П. (1994) «Моделирование больших вихрей: критический обзор техники», Q.J.R. Meteorol. Soc. 120 , 1-26. статья
- Менево К. (1994) «Статистика турбулентных подсеточных напряжений: необходимые условия и экспериментальные испытания», Phys. Жидкости А 6 , 815. артикул
- Менево К., T. Lund & W.H. Кэбот (1996) «Лагранжева динамическая подсеточная модель турбулентности», J. Fluid Mech. 319 , 353-385. статья
- Misra A. & D.I. Пуллин (1997) «Модель подсеточного напряжения на основе вихрей для моделирования крупных вихрей», Phys. Жидкости 9 , 2443-2454. статья
- Moeng C.-H. (1984) «Имитационная модель большого вихря для исследования турбулентности планетарного пограничного слоя», J. Atmos. Sci. 6 , 2311-2330.
- Мойн П., К. Сквайрс, В. Кэбот и С. Ли (1991) «Динамическая подсеточная модель для сжимаемой турбулентности и скалярного переноса», Phys. Жидкости A 3 , 2746-2757. статья
- Никуд Ф., Х. Байя Тода, О. Кабрит, С. Боз и Дж. Ли (2011) «Использование сингулярных значений для построения подсеточной модели для моделирования больших вихрей», Phys. Жидкости 23 , 085106. [1]
- Никуд Ф. и Ф. Дукрос (1999) «Моделирование напряжений в подсеточном масштабе на основе квадрата тензора градиента скорости», Flow, Turb.& Гребень. 62 , 183-200. статья
- Pierce C.D. И П. Мойн (1998) «Динамическая модель подсеточной дисперсии и скорости диссипации сохраняющегося скаляра», Phys. Жидкости 10 , 3041-3044. статья
- Пиомелли У. и Э. Баларас (2002) «Модели пристенного слоя для моделирования крупных вихрей», Annual Rev. Fluid Mech. 34 , 349-374. статья
- Piomelli U., P. Moin & J.H. Ферцигер (1988), Phys.Жидкости 31 , 1884. статья
- Пуансо Т. и Д. Вейнанте (2005) «Теоретическое и численное сжигание (2-е издание)», издательство Эдвардс. книга
- Папа, С. (2000) «Турбулентный поток», Cambridge University Press. книга
- Porte-Agel F., C. Meneveau & M.B. Парланж (2000) «Динамическая масштабно-зависимая модель для моделирования крупных вихрей: приложение к атмосферному пограничному слою», J. Fluid Mech. 415 , 261-284.статья
- Портер Д. Х., А. Пуке и П. Р. Вудворд (1994) «Колмогоровские спектры в затухающих трехмерных сверхзвуковых потоках», Phys. Жидкости 6 , 2133-2142. статья
- Сагаут П. (2006) Моделирование больших вихрей для несжимаемого потока (3-е издание), Springer. книга
- Schilling O. & Y. Zhou (2002) «Анализ спектральной вихревой вязкости и обратного рассеяния в несжимаемой изотропной турбулентности с использованием статистической теории замыкания», Phys.Жидкости 14 , 1244-1258. статья
- Schumann U. (1975) «Модель подсеточного масштаба для конечно-разностного моделирования турбулентных течений в плоских каналах и кольцах», J. Comp. Phys. 18 , 376.
- Скотти А. и К. Менево (1997) «Фрактальная модель для крупнозернистых нелинейных уравнений в частных производных», Phys. Rev. Lett. 78 , 867-870. статья
- Shi Y., Z. Xiao & S. Chen (2008) «Модель напряжений в подсеточном масштабе с ограничениями для моделирования крупных вихрей», Phys.Жидкости 20 , 011701. артикул
- Смагоринский Я. (1963) «Общих циркуляционные эксперименты с примитивными уравнениями. I. Основной эксперимент», Пн. Weather Rev. 91 , 99-164.
- Speziale C.G. (1985) «Подсеточные модели напряжений для моделирования больших вихрей вращающихся турбулентных потоков», Geophys. Astrophys. Гидродинамика, 33 , 199-222. статья
- Stolz S. & N.A. Adams (1999) «Приближенная процедура деконволюции для моделирования больших вихрей», Phys.Жидкости 11 , 1699-1701. статья
- Тао Б., Дж. Кац и К. Менево (2002) «Статистическая геометрия подсеточных напряжений, определенных из измерений скорости измерения скорости изображения голографических частиц», J. Fluid Mech. 467 , 35-78. статья
- Времан А. В. (2004) «Подсеточная модель вихревой вязкости для турбулентного сдвигового потока: алгебраическая теория и приложения», Phys. Жидкости 16 , 3670-3681. статья
- Ю Д.И П. Мойн (2007) «Динамическая подсеточная модель вихревой вязкости с глобальным коэффициентом для моделирования больших вихрей в сложной геометрии» Phys. Жидкости 19 , 065110. артикул
- Zang Y., R.L. Street & J.R. Koseff (1993) «Динамическая смешанная подсеточная модель и ее применение к турбулентным рециркуляционным потокам» Phys. Жидкости A 5 , 3186-3196. статья
Рекомендуемая дополнительная литература
- Менево К. и Дж. Кац (2000) «Масштабная инвариантность при моделировании турбулентности с помощью больших вихрей», Annual Rev.Жидкий мех. 32 , 1-32. статья.
- Lesieur M., O. Metais & P. Comte (2007) «Моделирование турбулентности с помощью больших вихрей», Cambridge University Press. книга
- Пиомелли У. (1999) «Моделирование больших вихрей: достижения и проблемы», Прогр. в аэрокосмических науках. 35 , 335-362.
- Рогалло Р. и П. Мойн (1984) «Численное моделирование турбулентных потоков», Ann. Rev. Fluid. Мех. 16 , 99-137. статья
Внешние ссылки
См. Также
Турбулентность, моделирование больших вихрей, прямое численное моделирование гидромеханики
| Возвращает новый тензор с данными |
| Возвращает тензор размера |
| Возвращает тензор размера |
| Возвращает тензор размера |
| Возвращает тензор размера |
| — это |
| — это |
| Is |
| Это факел |
| Этот атрибут имеет значение |
| Псевдоним для размера |
| Возвращает новый тензор, содержащий действительные значения тензора |
| Возвращает новый тензор, содержащий мнимые значения тензора |
| См. |
| Монтажная версия |
| Псевдоним для |
| Версия на месте |
| См. |
| Версия на месте |
| См. Резак |
| Версия на месте |
| Добавить скаляр или тензор к тензору |
| Версия на месте |
| См. Резак |
| Версия на месте |
| См. |
| Версия на месте |
| См. Резак |
| Версия на месте |
| См. |
| Версия на месте |
| См. Резак |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| См. |
| См. |
| См. |
| Применяет функцию |
| См. |
| См. |
| См. |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| См. |
| Вычисляет градиент тензора тока относительно |
| См. |
| Версия на месте |
| Возвращает тензор результата, в котором каждый результат [i] \ texttt {result [i]} result [i] независимо выбирается из Бернулли (self [i]) \ text {Bernoulli} (\ texttt {self [i]}) Бернулли (я [я]). |
| Заполняет каждую ячейку |
| |
| См. |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. Резак |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| |
| |
| См. Резак |
| Заполняет тензор числами, взятыми из распределения Коши: |
| См. |
| Версия на месте |
| |
| См. |
| См. |
| См. Резак |
| См. |
| См. |
| Монтажная версия зажима |
| Псевдоним для зажима |
| Псевдоним для |
| См. |
| Возвращает непрерывный тензор в памяти, содержащий те же данные, что и сам тензор |
| Копирует элементы из |
| См. |
| См. |
| Версия на месте копии |
| См. |
| Местная версия |
| См. |
| Монтажная версия |
| См. |
| См. |
| Версия на месте |
| acosh () -> Тензор |
| acosh_ () -> Тензор |
| Возвращает копию этого объекта в памяти ЦП. |
| См. |
| Возвращает копию этого объекта в памяти CUDA. |
| См. |
| См. |
| См. |
| См. |
| Монтажная версия шатуна |
| См. |
| Версия на месте |
| Возвращает адрес первого элемента тензора |
| См. |
| Учитывая квантованный тензор, деквантовать его и вернуть деквантованный тензор с плавающей запятой. |
| См. |
| Вернуть количество плотных измерений в разреженном тензоре |
| Возвращает новый тензор, отделенный от текущего графика. |
| Отсоединяет тензор от графа, который его создал, делая его листом. |
| См. |
| См. |
| См. |
| См. Резак |
| Заполните главную диагональ тензора, имеющего как минимум 2-мерный размер. |
| См. |
| См. |
| См. |
| См. Дигамма горелки |
| Версия на месте |
| Возвращает количество измерений тензора |
| См. |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| |
| См. |
| См. |
| Возвращает размер отдельного элемента в байтах. |
| См. |
| Местная версия |
| См. |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| Возвращает новый вид тензора |
| Раскройте этот тензор до того же размера, что и |
| Заполняет |
| См. Фиксатор резака |
| Версия исправления |
| Заполняет |
| см. |
| См. |
| См. |
| См. Резак |
| |
| См. |
| Версия на месте |
| См. |
| Монтажная версия |
| См. |
| Версия на месте |
| См. |
| Местная версия |
| См. |
| ГРП |
| См. |
| См. |
| См. |
| Местная версия |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| Заполняет |
| См. |
| См. |
| Для тензоров CUDA эта функция возвращает порядковый номер устройства графического процессора, на котором находится тензор. |
| См. |
| Местная версия |
| См. |
| Версия на месте |
| |
| См. |
| См. |
| См. |
| См. |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| Накопите элементы attr: alpha , умноженные на |
| Нестандартная версия резака |
| Копирует элементы тензора |
| Нестандартная версия резака |
| Заполняет элементы тензора |
| Нестандартная версия резака |
| Помещает значения из тензора |
| Внешняя версия |
| См. |
| Вернуть тензор индексов разреженного тензора COO. |
| См. |
| |
| Учитывая квантованный тензор, |
| См. |
| См. |
| См. Резак |
| См. |
| См. |
| См. |
| См. Резак |
| Возвращает True, если |
| Возвращает True, если тип данных |
| Возвращает True, если тип данных |
| Все тензоры, у которых есть |
| Возвращает истину, если этот тензор находится в закрепленной памяти. |
| Возвращает True, если оба тензора указывают на одну и ту же память (одинаковое хранилище, смещение, размер и шаг). |
| Проверяет, находится ли тензор в общей памяти. |
| Возвращает True, если тип данных |
| — это |
| См. |
| См. |
| Возвращает значение этого тензора как стандартное число Python. |
| См. Резак |
| См. |
| Монтажная версия |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| Заполняет |
| См. |
| См. |
| См. |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| |
| См. |
| См. |
| Местная версия |
| lt (другой) -> Tensor |
| Версия на месте |
| См. |
| См. |
| Создает экземпляр |
| Применяет |
| Копирует элементы из источника |
| Нестандартная версия резака |
| Заполняет элементы тензора |
| Нестандартная версия резака |
| См. |
| См. |
| |
| См. Резак |
| См. |
| См. Факел |
| См. |
| См. Резак |
| См. |
| См. |
| См. |
| См. Резак |
| См. |
| См. |
| См. |
| См. Резак |
| См. |
| См. |
| Версия на месте |
| См. Резак |
| Версия на месте функции |
| См. Резак |
| См. |
| См. Резак |
| Версия на месте |
| См. |
| См. |
| То же, что |
| Псевдоним для размера |
| См. |
| Версия на месте |
| См. |
| Местная версия |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| Псевдоним для номера |
| См. |
| Версия на месте |
| См. |
| См. |
| Заполняет |
| См. |
| Возвращает |
| См. |
| См. |
| См. |
| См. Резак |
| Копирует тензор в закрепленную память, если он еще не закреплен. |
| См. |
| См. |
| Местная версия полигаммы |
| См. |
| См. |
| Версия на месте |
| См. |
| Копирует элементы из источника |
| См. |
| Возвращает схему квантования данного QTensor. |
| См. |
| См. |
| Для данного тензора, квантованного линейным (аффинным) квантованием, возвращает масштаб базового квантователя (). |
| Для данного тензора, квантованного линейным (аффинным) квантованием, возвращает zero_point базового quantizer (). |
| Для данного тензора, квантованного линейным (аффинным) поканальным квантованием, возвращает тензор масштабов нижележащего квантователя. |
| Для данного тензора, квантованного линейным (аффинным) поканальным квантованием, возвращает тензор из zero_points базового квантователя. |
| Для данного тензора, квантованного линейным (аффинным) поканальным квантованием, возвращает индекс измерения, к которому применяется поканальное квантование. |
| См. |
| Заполняет |
| см. |
| См. |
| Версия на месте |
| Гарантирует, что тензорная память не используется повторно для другого тензора, пока не будут завершены все текущие задания, поставленные в очередь в потоке |
| Регистрирует обратный перехват. |
| См. |
| Версия на месте |
| См. Резак |
| Версия на месте |
| Повторяет этот тензор по указанным размерам. |
| См. |
| — это |
| Измените, должен ли autograd записывать операции с этим тензором: устанавливает атрибут этого тензора |
| Возвращает тензор с теми же данными и количеством элементов, что и |
| Возвращает этот тензор в той же форме, что и |
| Изменяет размер тензора |
| Изменяет размер тензора |
| Включает атрибут .grad для не оконечных тензоров. |
| См. |
| См. |
| См. Резак |
| на месте |
| См. |
| Версия на месте |
| Нестандартная версия резака |
| Записывает все значения из тензора |
| Складывает все значения из тензора |
| Нестандартная версия резака |
| Разрезает тензор |
| Задает базовое хранилище, размер и шаги. |
| Перемещает базовое хранилище в общую память. |
| |
| См. |
| Версия сигмоида |
| См. |
| Версия знака |
| См. |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| Возвращает размер тензора |
| См. |
| См. |
| См. |
| См. Резак |
| Возвращает новый разреженный тензор со значениями из полосатого тензора |
| Вернуть количество разреженных измерений в разреженном тензоре |
| См. Резак |
| Версия на месте |
| См. |
| Местная версия |
| См. Резак |
| Версия на месте зажима |
| См. |
| См. |
| Возвращает базовое хранилище. |
| Возвращает |
| Возвращает тип базового хранилища. |
| Возвращает шаг тензора |
| См. |
| Местная версия |
| См. |
| Версия на месте команды |
| См. |
| Сумма |
| См. |
| См. Резак |
| См. |
| См. |
| См. |
| Монтажная версия |
| См. |
| См. |
| Выполняет преобразование типа тензорного типа и / или устройства. |
| Возвращает копию тензора в факеле |
| См. |
| См. |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| Возвращает тензор в виде (вложенного) списка. |
| См. |
| Возвращает разреженную копию тензора. |
| См. |
| См. |
| Версия на месте команды |
| См. |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| См. |
| Версия на месте |
| Возвращает тип, если dtype не указан, иначе приводит этот объект к указанному типу. |
| Возвращает этот тензор, приведенный к типу данного тензора. |
| См. Резак |
| Возвращает представление исходного тензора, которое содержит все срезы размером |
| Заполняет |
| Возвращает уникальные элементы входного тензора. |
| Удаляет все элементы, кроме первого, из каждой последующей группы эквивалентных элементов. |
| См. |
| Версия на месте |
| Возвращает тензор значений разреженного тензора COO. |
| См. |
| См. |
| Возвращает новый тензор с теми же данными, что и тензор |
| Просмотрите этот тензор такого же размера, как |
| См. |
| |
| См. |
| Версия на месте |
| Заполняет нулями |
Масштабирование Pytorch Tensor — Форумы PyTorch
FWIW Я реализовал нечто подобное, прежде чем наткнулся на StandardScaler
; Я дал ему немного худшее название
класс DatasetNorm1d (nn.Модуль):
"" "Записывает статистику набора данных. Kthxbye" ""
# Похоже на: https://scikit-learn.org/stable/modules/generated/sklearn.preprocessing.StandardScaler.html
def __init __ (self, num_features):
супер () .__ init __ ()
self._num_features = num_features
self.register_buffer ('среднее', torch.full ((self._num_features,), np.nan))
self.register_buffer ('var', torch.full ((self._num_features,), np.nan))
def _is_initialized (сам):
если torch.isnan (self.mean) .any () или torch.isnan (self.var) .any ():
вернуть ложь
вернуть True
@ torch.no_grad ()
def initialize (self, input_batch):
"" "
Аргументы:
input_batch: Пакет, который должен представлять * все * входы для данного
набор данных.
Пример:
norm.initialize (torch.cat ([x вместо (x, _) в train_loader]))
"" "
# TODO (eric.cousineau): использовать точные текущие вычисления?
# См .: https://github.com/pytorch/pytorch/blob/480851ad/aten/src/ATen/native/Normalization.cpp # L215-L269
утверждать не self._is_initialized ()
N, L = input_batch.shape
утверждать L == self._num_features
утверждать N> 1
var_mean = torch.var_mean (input_batch, dim = 0)
self.var.data [:], self.mean.data [:] = var_mean
def вперед (self, x):
если не self._is_initialized ():
поднять RuntimeError ("Это должно быть инициализировано в наборе данных!")
y = (x - self.mean) / torch.sqrt (self.var)
вернуть y
# Краткий тестовый код
класс TestStuff (unittest.Прецедент):
def test_dataset_norm (сам):
xs = torch.Tensor ([
[1., 10.],
[2., 20.],
[3., 30.],
[4., 40.],
])
norm = mut.DatasetNorm1d (2)
с self.assertRaises (RuntimeError):
норма (хз)
norm.initialize (хз)
ys = норма (xs)
np.testing.assert_array_equal (ys [:, 0] .numpy (), ys [:, 1] .numpy ())
self.assertEqual (список (norm.state_dict (). keys ()), ["среднее", "вар"])
Произошла ошибка при настройке вашего пользовательского файла cookie
Произошла ошибка при настройке вашего пользовательского файла cookieЭтот сайт использует файлы cookie для повышения производительности.Если ваш браузер не принимает файлы cookie, вы не можете просматривать этот сайт.
Настройка вашего браузера для приема файлов cookie
Существует множество причин, по которым cookie не может быть установлен правильно. Ниже приведены наиболее частые причины:
- В вашем браузере отключены файлы cookie. Вам необходимо сбросить настройки своего браузера, чтобы он принимал файлы cookie, или чтобы спросить вас, хотите ли вы принимать файлы cookie.
- Ваш браузер спрашивает вас, хотите ли вы принимать файлы cookie, и вы отказались.Чтобы принять файлы cookie с этого сайта, нажмите кнопку «Назад» и примите файлы cookie.
- Ваш браузер не поддерживает файлы cookie. Если вы подозреваете это, попробуйте другой браузер.
- Дата на вашем компьютере в прошлом. Если часы вашего компьютера показывают дату до 1 января 1970 г., браузер автоматически забудет файл cookie. Чтобы исправить это, установите правильное время и дату на своем компьютере.
- Вы установили приложение, которое отслеживает или блокирует установку файлов cookie.Вы должны отключить приложение при входе в систему или проконсультироваться с системным администратором.
Почему этому сайту требуются файлы cookie?
Этот сайт использует файлы cookie для повышения производительности, запоминая, что вы вошли в систему, когда переходите со страницы на страницу. Чтобы предоставить доступ без файлов cookie потребует, чтобы сайт создавал новый сеанс для каждой посещаемой страницы, что замедляет работу системы до неприемлемого уровня.
Что сохраняется в файле cookie?
Этот сайт не хранит ничего, кроме автоматически сгенерированного идентификатора сеанса в cookie; никакая другая информация не фиксируется.
Как правило, в cookie-файлах может храниться только информация, которую вы предоставляете, или выбор, который вы делаете при посещении веб-сайта. Например, сайт не может определить ваше имя электронной почты, пока вы не введете его. Разрешение веб-сайту создавать файлы cookie не дает этому или любому другому сайту доступа к остальной части вашего компьютера, и только сайт, который создал файл cookie, может его прочитать.
Обнаружение угловс использованием тензора разнонаправленной структуры с несколькими масштабами
Аанес, Х., Даль, А.Л., и Педерсен, К.С. (2012). Интересные точки интереса. Международный журнал компьютерного зрения , 97 (1), 18–35.
Google Scholar
Алькантарилла П., Бартоли А., Дэвисон А. (2012). Особенности KAZE. В Европейская конференция по компьютерному зрению (стр.214–227). Springer.
Awrangjeb, M., & Lu, G. (2008). Надежное обнаружение углов изображения на основе метода накопления расстояния от хорды до точки. Транзакции IEEE в мультимедиа , 10 (6), 1059–1072.
Google Scholar
Bay, H., Tuytelaars, T., & Van Gool, L. (2006). SURF: Ускоренные надежные функции. В Европейская конференция по компьютерному зрению (стр. 404–417).Springer.
Bowyer, K., Kranenburg, C., & Dougherty, S. (1999). Оценка детектора края с использованием эмпирических кривых ROC. В конференции IEEE по компьютерному зрению и распознаванию образов (том 1, стр. 354–359).
Brox, T., Weickert, J., Burgeth, B., & Mrázek, P. (2006). Тензоры нелинейной структуры. Image and Vision Computing , 24 (1), 41–55.
Google Scholar
Корнелис, Н., И Ван Гул, Л. (2008). Быстрое масштабно-инвариантное обнаружение и сопоставление функций на программируемом графическом оборудовании. В Мастерские по компьютерному зрению и распознаванию образов (стр. 1–8).
Deriche, R., & Giraudon, G. (1993). Вычислительный подход для обнаружения углов и вершин. Международный журнал компьютерного зрения , 10 (2), 101–124.
Google Scholar
Детоне, Д., Малисевич, Т., Рабинович, А. (2018). Superpoint: Самостоятельное обнаружение и описание точек интереса. В конференции IEEE по компьютерному зрению и распознаванию образов (стр. 224–236).
Дюваль-Пу, М.А., Одоне, Ф., и Де Вито, Э. (2015). Кромки и уголки с обрезками. Транзакции IEEE по обработке изображений , 24 (11), 3768–3780.
MathSciNet МАТЕМАТИКА Google Scholar
Поле, д.Дж. (1987). Связь между статистикой естественных изображений и реакционными свойствами корковых клеток. Журнал Оптического общества Америки A-Optics Image Science and Vision , 4 (12), 2379–2394.
Google Scholar
Гао, X., Саттар, Ф., и Венкатесварлу, Р. (2007). Обнаружение многомасштабных углов изображений с уровнями серого на основе вейвлет-преобразования LoG-Gabor. Транзакции IEEE в схемах и системах для видеотехники , 17 (7), 868–875.
Google Scholar
Gårding, J., & Lindeberg, T. (1996). Прямое вычисление реплик формы с использованием масштабно адаптированных операторов пространственной производной. Международный журнал компьютерного зрения , 17 (2), 163–191.
Google Scholar
Харрис К. и Стивенс М. (1988). Комбинированный детектор угла и края. В Alvey Vision Conference (стр.147–151).
Хартли Р. И. и Зиссерман А. (2004). Многовидовая геометрия в компьютерном зрении . Кембридж: Издательство Кембриджского университета.
MATH Google Scholar
Хуанг, Ф. К., Хуанг, С. Ю., Кер, Дж. У., и Чен, Ю. К. (2012). Высокопроизводительный аппаратный ускоритель SIFT для извлечения элементов изображения в реальном времени. Транзакции IEEE в схемах и системах для видеотехники , 22 (3), 340–351.
Google Scholar
Кенни, К. С., Манджунат, Б., Зулиани, М., Хевер, Г. А., и Ван Невель, А. (2003). Номер условия для сопоставления точки с заявкой на регистрацию и оценку погрешности пострегистрации. Транзакции IEEE по анализу шаблонов и машинному анализу , 25 (11), 1437–1454.
Google Scholar
Кендеринк, Дж.Дж. (1984). Структура изображений. Биологическая кибернетика , 50 (5), 363–370.
MathSciNet МАТЕМАТИКА Google Scholar
Лаптев И. (2005). О точках интереса пространства-времени. Международный журнал компьютерного зрения , 64 (2–3), 107–123.
Google Scholar
Ли, Дж. С., Сан, Ю. Н., и Чен, К. Х. (1995).Обнаружение многомасштабных углов с помощью вейвлет-преобразования. Транзакции IEEE по обработке изображений , 4 (1), 100–104.
Google Scholar
Ленц, К., и Ведальди, А. (2016). Изучение ковариантных детекторов признаков. В Европейская конференция по компьютерному зрению (стр. 100–117). Springer.
Lepetit, V., & Fua, P. (2006). Распознавание ключевых точек с использованием рандомизированных деревьев. Транзакции IEEE по анализу шаблонов и машинному анализу , 28 (9), 1465–1479.
Google Scholar
Линдеберг Т. (1998). Обнаружение признаков с автоматическим выбором шкалы. Международный журнал компьютерного зрения , 30 (2), 79–116.
Google Scholar
Лоу, Д. Г. (2004). Отличительные особенности изображения от масштабно-инвариантных ключевых точек. Международный журнал компьютерного зрения , 60 (2), 91–110.
Google Scholar
Маримон Д., Боннин А., Адамек Т. и Гимено Р. (2010). DART: эффективное извлечение ключевых точек DAISY в масштабное пространство. В конференции IEEE по компьютерному зрению и распознаванию образов (стр. 2416–2423).
Мавер Дж. (2010). Самоподобие и интересные места. Транзакции IEEE по анализу шаблонов и машинному анализу , 32 (7), 1211–1226.
Google Scholar
Мяо, З., и Цзян, X. (2013). Обнаружение точек интереса с использованием фильтра LoG порядка ранжирования. Распознавание образов , 46 (11), 2890–2901.
Google Scholar
Mikolajczyk, K., & Schmid, C. (2004). Масштабные и аффинно-инвариантные детекторы точек интереса. Международный журнал компьютерного зрения , 60 (1), 63–86.
Google Scholar
Mikolajczyk, K., Tuytelaars, T., Schmid, C., Zisserman, A., Matas, J., Schaffalitzky, F., et al. (2005). Сравнение детекторов аффинных областей. Международный журнал компьютерного зрения , 65 (1–2), 43–72.
Google Scholar
Мохтарян Ф. и Суомела Р. (1998). Надежное обнаружение углов изображения с помощью шкалы кривизны. Транзакции IEEE по анализу шаблонов и машинному анализу , 20 (12), 1376–1381.
Google Scholar
Моравец, Х. П. (1979). Визуальное картирование с помощью робота-вездехода. В Труды 6-й международной совместной конференции по искусственному интеллекту (Том 1, стр. 598–600).
Ноубл, Дж. А. (1988). Поиск углов. Image and Vision Computing , 6 (2), 121–128.
Google Scholar
Олсон, К. Ф. (2000). Адаптивная фильтрация и обнаружение признаков с использованием данных о диапазоне. Транзакции IEEE по анализу шаблонов и машинному анализу , 22 (9), 983–991.
Google Scholar
Перона П. и Малик Дж. (1990). Обнаружение масштабного пространства и краев с использованием анизотропной диффузии. Транзакции IEEE по анализу шаблонов и машинному анализу , 12 (7), 629–639.
Google Scholar
Фам, Т. А., Делаландр, М., Баррат, С., и Рамель, Дж. Ю. (2014). Точное обнаружение и определение характеристик стыков на изображениях линий. Распознавание образов , 47 (1), 282–295.
Google Scholar
Куинлан, Дж. Р. (1986). Индукция деревьев решений. Машинное обучение , 1 (1), 81–106.
Google Scholar
Раттарангси А. и Чин Р. Т. (1990). Определение углов плоских кривых на основе масштаба. В 10-я международная конференция по распознаванию образов (Том 1, стр. 923–930).
Ростен Э., Портер Р. и Драммонд Т. (2010). Быстрее и лучше: подход машинного обучения к обнаружению углов. Транзакции IEEE по анализу шаблонов и машинному анализу , 32 (1), 105–119.
Google Scholar
Рузон, М. А., и Томаси, К. (2001). Обнаружение краев, стыков и углов с использованием цветового распределения. Транзакции IEEE по анализу шаблонов и машинному анализу , 23 (11), 1281–1295.
Google Scholar
Schmid, C., Mohr, R., & Bauckhage, C. (2000). Оценка детекторов точек интереса. Международный журнал компьютерного зрения , 37 (2), 151–172.
MATH Google Scholar
Шуй, П., и Чжан, В. (2012). Устойчивый к шумам краевой детектор, сочетающий изотропное и анизотропное ядра Гаусса. Распознавание образов , 45 (2), 806–820.
MATH Google Scholar
Шуй П. и Чжан В. (2013). Обнаружение и классификация углов с использованием представлений анизотропной производной по направлению. Транзакции IEEE по обработке изображений , 22 (8), 3204–3218.
Google Scholar
Смит С. М. и Брэди Дж. М. (1997). СЬЮЗАН — Новый подход к обработке изображений низкого уровня. Международный журнал компьютерного зрения , 23 (1), 45–78.
Google Scholar
Снавели Н., Зейтц С. М. и Селиски Р. (2006).Фототуризм: изучение коллекций фотографий в 3D. Транзакции ACM на графике , 26 (3), 835–846.
Google Scholar
Су Р., Сан К. и Фам Т. Д. (2012). Обнаружение стыков для линейных структур на основе информации о гессиане, корреляции и форме. Распознавание образов , 45 (10), 3695–3706.
Google Scholar
Тех, К.Х. и Чин Р. Т. (1989). Об обнаружении доминирующих точек на цифровых кривых. Транзакции IEEE по анализу шаблонов и машинному анализу , 11 (8), 859–872.
Google Scholar
Трухильо, Л., Олаге, Г. (2006). Синтез детекторов точек интереса посредством генетического программирования. В Труды 8-й ежегодной конференции по генетическим и эволюционным вычислениям (стр. 887–894).
Verdie, Y., Йи, В., Фуа, П., и Лепетит, В. (2015). ТИЛЬДА: обучаемый детектор, инвариантный во времени. В конференции IEEE по компьютерному зрению и распознаванию образов (стр. 5279–5288).
Ван, Ю.-П. (1999). Представления изображений с помощью многомасштабных дифференциальных операторов. Транзакции IEEE по обработке изображений , 8 (12), 1757–1771.
MathSciNet МАТЕМАТИКА Google Scholar
Weickert, J., Ромени, Б. Т. Х., & Виергевер, М. А. (1998). Эффективные и надежные схемы нелинейной диффузионной фильтрации. Транзакции IEEE по обработке изображений , 7 (3), 398–410.
Google Scholar
Видински, Н., и Миньотт, М. (2014). Многоуровневая система противосажевого фильтра для определения контуров. Транзакции IEEE по анализу шаблонов и машинному анализу , 36 (10), 1922–1935.
Google Scholar
Уилсон, К., и Снавели, Н. (2014). Надежные глобальные переводы с 1DSfM. В Европейская конференция по компьютерному зрению (стр. 61–75). Springer.
Виткин А. (1984). Масштабная фильтрация: новый подход к многомасштабному описанию. В Международная конференция IEEE по акустике, речи и обработке сигналов (Том 9, стр. 150–153).
Ся, Г., Делон, Дж., И Гуссо, Ю. (2014). Точное обнаружение стыков и их характеристика на естественных изображениях. Международный журнал компьютерного зрения , 106 (1), 31–56.
MathSciNet МАТЕМАТИКА Google Scholar
Йи, К. М., Труллс, Э., Лепетит, В., и Фуа, П. (2016). LIFT: преобразование изученного инвариантного признака. В Европейская конференция по компьютерному зрению (стр. 467–483).
Чжан, Х., Цюй, Ю., Ян, Д., Ван, Х., и Каймер, Дж. (2015). Лапласовское поведение углов плоской кривой в масштабном пространстве. Транзакции IEEE по анализу шаблонов и машинному анализу , 37 (11), 2207–2217.
Google Scholar
Чжан В., и Шуй П. (2015). Обнаружение углов по контуру через разность углов главных направлений анизотропных гауссовых производных по направлению. Распознавание образов , 48 (9), 2785–2797.
Google Scholar
Чжан В., Сун К., Брекон Т. и Альшаммари Н. (2019). Дискретные представления кривизны для обнаружения углов изображения с устойчивостью к шумам. Транзакции IEEE по обработке изображений , 28 (9), 4444–4459.
MathSciNet МАТЕМАТИКА Google Scholar
Чжан В., Ван Ф., Чжу Л. и Чжоу З. (2014). Обнаружение углов с помощью фильтров Габора. Обработка изображений IET , 8 (11), 639–646.
Google Scholar
Zhang, W.-C., Zhao, Y., Breckon, T.P., & Chen, L. (2017). Устойчивое к шумам обнаружение краев изображения на основе автоматических анизотропных ядер Гаусса. Распознавание образов , 63 (2), 193–205.
Google Scholar
Чжан, X., Yu, F.X., Karaman, S., Чанг, С.-Ф. (2017). Изучение дискриминантных и ковариантных локальных детекторов признаков с преобразованием. В конференции IEEE по компьютерному зрению и распознаванию образов (стр. 6818–6826).
Чжун Б. и Ляо В. (2007). Пространство шкалы прямой кривизны: теория и определение углов. Транзакции IEEE по анализу шаблонов и машинному анализу , 29 (3), 100–108.
Google Scholar
Облачные тензорные процессоры (TPU) | Google Cloud
Блоки тензорной обработки (TPU) — это специально разработанные Google специализированные интегральные схемы (ASIC), используемые для ускорить выполнение машинного обучения.ТПУ разработаны из с нуля благодаря огромному опыту и лидерству Google в машинное обучение.
Cloud TPU позволяет запускать рабочие нагрузки машинного обучения на аппаратном ускорителе TPU от Google, используя TensorFlow. Cloud TPU разработан для максимальной производительности и гибкости чтобы помочь исследователям, разработчикам и компаниям создавать вычисления TensorFlow кластеры, которые могут использовать процессоры, графические процессоры и TPU. API-интерфейсы TensorFlow высокого уровня поможет вам запустить модели на оборудовании Cloud TPU.
Преимущества ТПУ
РесурсыCloud TPU ускоряют выполнение линейной алгебры вычисления, которые широко используются в приложениях машинного обучения. ТПУ минимизировать время достижения точности при обучении большой сложной нейронной сети модели. Модели, обучение которых на других аппаратных платформах раньше занимало недели. может сойтись за часы на TPU.
Наличие
Cloud TPU доступны в следующих зонах:
США
Тип ТПУ (v2) | Ядра TPU v2 | Общая память TPU | Регион / Зона |
---|---|---|---|
версии 2-8 | 8 | 64 ГиБ | us-central1-b us-central1-c us-central1-f |
версия 2-32 | 32 | 256 ГиБ | us-central1-a |
версии 2-128 | 128 | 1 ТиБ | us-central1-a |
версии 2-256 | 256 | 2 ТиБ | us-central1-a |
версия 2-512 | 512 | 4 ТиБ | us-central1-a |
Тип ТПУ (v3) | Ядра TPU v3 | Общая память TPU | Доступные зоны |
версии 3-8 | 8 | 128 ГиБ | us-central1-a us-central1-b us-central1-f |
Европа
Тип ТПУ (v2) | Ядра TPU v2 | Общая память TPU | Регион / Зона |
---|---|---|---|
версии 2-8 | 8 | 64 ГиБ | европа-запад4-а |
версия 2-32 | 32 | 256 ГиБ | европа-запад4-а |
версии 2-128 | 128 | 1 ТиБ | европа-запад4-а |
версии 2-256 | 256 | 2 ТиБ | европа-запад4-а |
версия 2-512 | 512 | 4 ТиБ | европа-запад4-а |
Тип ТПУ (v3) | Ядра TPU v3 | Общая память TPU | Доступные зоны |
версии 3-8 | 8 | 128 ГиБ | европа-запад4-а |
v3-32 | 32 | 512 ГиБ | европа-запад4-а |
v3-64 | 64 | 1 ТиБ | европа-запад4-а |
v3-128 | 128 | 2 ТиБ | европа-запад4-а |
v3-256 | 256 | 4 ТиБ | европа-запад4-а |
версия 3-512 | 512 | 8 TiB | европа-запад4-а |
версия 3-1024 | 1024 | 16 ТиБ | европа-запад4-а |
версия 3-2048 | 2048 | 32 TiB | европа-запад4-а |
Азиатско-Тихоокеанский регион
Тип ТПУ (v2) | Ядра TPU v2 | Общая память TPU | Регион / Зона |
---|---|---|---|
версии 2-8 | 8 | 64 ГиБ | азия-восток1-с |
Модель программирования Cloud TPU
Cloud TPU очень быстро выполняют плотные векторные и матричные вычисления.Передача данных между Cloud TPU и памятью хоста происходит медленно по сравнению со скоростью вычислений — скорость шины PCIe намного медленнее на чем как межсоединение Cloud TPU, так и высокая пропускная способность на кристалле память (HBM). Частичная компиляция модели, где исполнение передает туда и обратно между хостом и устройством, заставляя TPU простаивать большую часть время ожидания поступления данных по шине PCIe. Чтобы облегчить это В данной ситуации модель программирования для Cloud TPU предназначена для выполнять большую часть обучения на TPU — в идеале — весь цикл обучения.
Ниже приведены некоторые характерные особенности модели программирования TPU:
- Все параметры модели хранятся во встроенной памяти с высокой пропускной способностью.
- Стоимость запуска вычислений на Cloud TPU амортизируется выполнение множества шагов обучения в цикле.
- Входные обучающие данные передаются в очередь «подачи» на Облачный ТПУ. Программа, работающая в Cloud TPU, извлекает пакеты из этих очередей на каждом этапе обучения.
- Сервер TensorFlow, работающий на хост-машине (ЦП, подключенный к Устройство Cloud TPU) получает данные и предварительно обрабатывает их перед «подача» к оборудованию Cloud TPU.
- Параллелизм данных: ядра в облачном TPU выполняют идентичные программа, находящаяся в их собственном HBM синхронно. А операция редукции выполняется в конце каждого шага нейронной сети через все ядра.
Когда использовать TPU
Cloud TPU оптимизированы для определенных рабочих нагрузок. В некоторых ситуациях вы можете хотите использовать графические процессоры или процессоры в экземплярах Compute Engine, чтобы выполняйте рабочие нагрузки машинного обучения. В общем, вы можете решить, что за железо лучше всего подходит для вашей рабочей нагрузки на основе следующих рекомендаций:
ЦП
- Быстрое прототипирование, требующее максимальной гибкости
- Простые модели, не требующие много времени на обучение
- Маленькие модели с небольшими эффективными размерами партий
- Модели, в которых преобладают пользовательские операции TensorFlow, написанные на C ++
- Модели, которые ограничены доступным вводом / выводом или пропускной способностью сети хост-система
графических процессора
- Модели, для которых источник не существует или слишком обременительный для изменения
- Модели со значительным количеством настраиваемых операций TensorFlow, которые должны работать хотя бы частично на процессорах
- Модели с операциями TensorFlow, недоступные на Cloud TPU (см. Список доступные операции TensorFlow)
- Модели среднего и большого размера с большими эффективными размерами партий
ТПУ
- Модели, в которых преобладают матричные вычисления
- Модели без пользовательских операций TensorFlow внутри основного цикла обучения
- Модели, которые тренируются неделями или месяцами
- Большие и очень большие модели с очень большими эффективными размерами партий
Cloud TPU не подходят для следующих рабочих нагрузок :
- Программы линейной алгебры, которые требуют частого ветвления или над которыми доминируют поэлементно по алгебре.TPU оптимизированы для работы с быстрой и громоздкой матрицей умножение, поэтому рабочая нагрузка, в которой не преобладает матричное умножение вряд ли будет хорошо работать на TPU по сравнению с другими платформами.
- Рабочие нагрузки с ограниченным доступом к памяти могут быть недоступны на ТПУ.
- Рабочие нагрузки, требующие высокоточной арифметики. Например, Арифметика с двойной точностью не подходит для TPU.
- Рабочие нагрузки нейронной сети, которые содержат настраиваемые операции TensorFlow, написанные на C ++.В частности, пользовательские операции в теле основного цикла обучения: не подходит для ТПУ.
Рабочие нагрузки нейронной сети должны иметь возможность выполнять несколько итераций всего цикл обучения на ТПУ. Хотя это не принципиальное требование к TPU. сами по себе, это одно из текущих ограничений программной экосистемы TPU что требуется для эффективности.
Отличия от обычного обучения
Типичный обучающий граф TensorFlow состоит из нескольких перекрывающихся подграфов. которые обеспечивают множество функций, в том числе:
- Операции ввода-вывода для чтения обучающих данных.
- Этапы предварительной обработки ввода, часто соединенные через очереди.
- Переменные модели.
- Код инициализации для этих переменных.
- Сама модель.
- Функции потерь.
- Код градиента (обычно создается автоматически).
- Краткое описание операций по обучению мониторингу.
- Сохранить / восстановить операции для контрольной точки.
On Cloud TPU, программы TensorFlow компилируются Оперативный компилятор XLA. Когда обучение на Cloud TPU, код только , который можно скомпилировать и выполненный на фурнитуре соответствует плотным частям модели, подграфы потерь и градиентов.Все остальные части программы TensorFlow работают на хост-машины (сервер Cloud TPU) как часть обычного распределенный сеанс TensorFlow. Обычно это операции ввода-вывода. которые читают данные обучения, любой код предварительной обработки (например: декодирование сжатые изображения, случайная выборка / обрезка, сборка обучающих мини-пакетов) и все части графика обслуживания, такие как сохранение / восстановление контрольной точки.
Лучшие практики разработки моделей
Один чип Cloud TPU содержит 2 ядра, каждое из которых содержит множественные матричные блоки (MXU), предназначенные для ускорения программ, в которых преобладают умножения и свертки плотных матриц (см. Архитектура системы).Программы, которые тратят значительную часть времени выполнения на выполнение умножение матриц обычно хорошо подходит для Cloud TPU. Программа, в вычислениях которой преобладают нематричные операции. такие как добавление, изменение формы или конкатенация, скорее всего, не обеспечат высокий уровень MXU утилизация. Ниже приведены некоторые рекомендации, которые помогут вам выбрать и построить модели. которые подходят для Cloud TPU.
Одно устройство Cloud TPU состоит из четырех микросхем, каждый из которых имеет два ядра TPU. Таким образом, для эффективного использования Cloud TPU необходимо программа должна использовать каждое из восьми ядер.
Макет
Компилятор XLA выполняет преобразования кода, включая мозаичное размещение матрицы. умножить на более мелкие блоки, чтобы эффективно выполнять вычисления на матричный блок (MXU). Структура аппаратного обеспечения MXU, систолический 128×128 массива, а также конструкции ТПУ подсистема памяти, которая предпочитает размеры, кратные 8, используются компилятор XLA для повышения эффективности тайлинга. Следовательно, некоторые макеты более способствуют укладке плитки, в то время как другие требуют преобразований , прежде чем они можно облицовывать плиткой.Операции изменения формы часто связаны с памятью Облачный ТПУ.
Фигуры
Компилятор XLA компилирует граф TensorFlow как раз вовремя для первого пакета. Если какие-либо последующие партии имеют другую форму, модель не работает. (Перекомпилировать график каждый раз, когда форма меняется слишком медленно.) Следовательно, любая модель, имеющая тензоры с динамическими формами, изменяющимися во время выполнения, не хорошо подходит для ТПУ.
Набивка
Высокопроизводительная программа Cloud TPU — это программа, в которой можно легко разбить на блоки размером 128×128.Когда вычисление матрицы не может занимать весь MXU, компилятор дополняет тензоры нулями. Есть два недостатка до набивки:
- Тензоры, заполненные нулями, недостаточно используют ядро TPU.
- Padding увеличивает объем памяти на кристалле, необходимый для тензора и в крайнем случае может привести к ошибке нехватки памяти.
Хотя заполнение автоматически выполняется компилятором XLA, когда это необходимо, один может определить количество выполняемых отступов с помощью op_profile орудие труда.Вы можете избежать заполнения, выбрав тензорные измерения, которые хорошо подходят в ТПУ.
Размеры
Выбор подходящих тензорных размерностей имеет большое значение для извлечения максимальной производительность оборудования TPU, особенно MXU. Компилятор XLA пытается максимально использовать либо размер пакета, либо размер объекта. использовать MXU. Следовательно, одно из них должно быть кратно 128. В противном случае компилятор дополнит один из них до 128. В идеале размер пакета, а также функция размеры должны быть кратны 8, что позволяет получить высокую производительность из подсистемы памяти.
Операции
См. Список доступных операций TensorFlow.
Интеграция средств управления сервисом VPC
Cloud TPU VPC Service Controls позволяет определять безопасность периметры вокруг ваших ресурсов Cloud TPU и контролировать перемещение данных по периметру границы. Чтобы узнать больше об элементах управления службами VPC, см. Обзор управления службами VPC. К узнать об ограничениях использования Cloud TPU с Управление службами VPC, см. поддерживаемые продукты и ограничения.
Кромка TPU
Модели машинного обучения, обученные в облаке, все чаще нуждаются в запуске вывод «на краю», то есть на устройствах, которые работают на краю Интернет вещей (IoT). Эти устройства включают датчики и другие интеллектуальные устройства. которые собирают данные в реальном времени, принимают разумные решения, а затем принимают меры или передавать свою информацию на другие устройства или в облако.
Поскольку такие устройства должны работать с ограниченным энергопотреблением (включая питание от аккумулятора), Google разработал сопроцессор Edge TPU для ускорения вывода машинного обучения на маломощные устройства.Отдельный Edge TPU может выполнить 4 триллиона операций в секунду (4 TOPS), потребляя всего 2 Вт мощности — другими словами, вы получаете 2 ТОПа на ватт. Например, Edge TPU может выполнять самые современные модели мобильного зрения, такие как MobileNet V2 с частотой почти 400 кадров в секунду, и энергоэффективным способом.
Этот маломощный ускоритель машинного обучения дополняет Cloud TPU и Cloud IoT для предоставить сквозную (от облака до границы, оборудование + программное обеспечение) инфраструктуру, которая облегчает ваши решения на основе ИИ.
Edge TPU доступен для ваших собственных прототипов и производственных устройств в несколько форм-факторов, в том числе одноплатный компьютер, система-на-модуле, Карта PCIe / M.