Изображения перевод: Attention Required! | Cloudflare

Содержание

%d0%b8%d0%b7%d0%be%d0%b1%d1%80%d0%b0%d0%b6%d0%b5%d0%bd%d0%b8%d0%b5 — со всех языков на все языки

Все языкиРусскийАнглийскийИспанский────────Айнский языкАканАлбанскийАлтайскийАрабскийАрагонскийАрмянскийАрумынскийАстурийскийАфрикаансБагобоБаскскийБашкирскийБелорусскийБолгарскийБурятскийВаллийскийВарайскийВенгерскийВепсскийВерхнелужицкийВьетнамскийГаитянскийГреческийГрузинскийГуараниГэльскийДатскийДолганскийДревнерусский языкИвритИдишИнгушскийИндонезийскийИнупиакИрландскийИсландскийИтальянскийЙорубаКазахскийКарачаевскийКаталанскийКвеньяКечуаКиргизскийКитайскийКлингонскийКомиКомиКорейскийКриКрымскотатарскийКумыкскийКурдскийКхмерскийЛатинскийЛатышскийЛингалаЛитовскийЛюксембургскийМайяМакедонскийМалайскийМаньчжурскийМаориМарийскийМикенскийМокшанскийМонгольскийНауатльНемецкийНидерландскийНогайскийНорвежскийОрокскийОсетинскийОсманскийПалиПапьяментоПенджабскийПерсидскийПольскийПортугальскийРумынский, МолдавскийСанскритСеверносаамскийСербскийСефардскийСилезскийСловацкийСловенскийСуахилиТагальскийТаджикскийТайскийТатарскийТвиТибетскийТофаларскийТувинскийТурецкийТуркменскийУдмуртскийУзбекскийУйгурскийУкраинскийУрдуУрумскийФарерскийФинскийФранцузскийХиндиХорватскийЦерковнославянский (Старославянский)ЧеркесскийЧерокиЧеченскийЧешскийЧувашскийШайенскогоШведскийШорскийШумерскийЭвенкийскийЭльзасскийЭрзянскийЭсперантоЭстонскийЮпийскийЯкутскийЯпонский

 

Все языкиРусскийАнглийскийИспанский────────АймараАйнский языкАлбанскийАлтайскийАрабскийАрмянскийАфрикаансБаскскийБашкирскийБелорусскийБолгарскийВенгерскийВепсскийВодскийВьетнамскийГаитянскийГалисийскийГреческийГрузинскийДатскийДревнерусский языкИвритИдишИжорскийИнгушскийИндонезийскийИрландскийИсландскийИтальянскийЙорубаКазахскийКарачаевскийКаталанскийКвеньяКечуаКитайскийКлингонскийКорейскийКрымскотатарскийКумыкскийКурдскийКхмерскийЛатинскийЛатышскийЛингалаЛитовскийЛожбанМайяМакедонскийМалайскийМальтийскийМаориМарийскийМокшанскийМонгольскийНемецкийНидерландскийНорвежскийОсетинскийПалиПапьяментоПенджабскийПерсидскийПольскийПортугальскийПуштуРумынский, МолдавскийСербскийСловацкийСловенскийСуахилиТагальскийТаджикскийТайскийТамильскийТатарскийТурецкийТуркменскийУдмуртскийУзбекскийУйгурскийУкраинскийУрдуУрумскийФарерскийФинскийФранцузскийХиндиХорватскийЦерковнославянский (Старославянский)ЧаморроЧерокиЧеченскийЧешскийЧувашскийШведскийШорскийЭвенкийскийЭльзасскийЭрзянскийЭсперантоЭстонскийЯкутскийЯпонский

Создание водяного знака из фотографии или рисунка в Publisher

Изображения могут быть красивыми водяными знаками или фонами страницы публикации.

Вы также можете добавить на фотографии водяной знак, например, символ авторского права.

Добавление в публикацию изображения в качестве водяного знака

  1. Нажмите Макет страницы > Эталонные страницы > Изменить главные страницы.

  2. Выберите пункты Вставка > Рисунки или Изображения в Интернете.

  3. Перетаскивайте маркеры изображения, чтобы задать изображению желаемый размер водяного знака.

    Совет:  Чтобы равномерно изменить размер изображения, перетащите угловой маркер фотографии, удерживая нажатой клавишу SHIFT.

Форматирование изображения

Чтобы текст публикации был лучше виден, настройте прозрачность изображения.

  1. Щелкните рисунок правой кнопкой мыши и выберите команду Формат рисунка.

  2. На вкладке Рисунок в группе Прозрачность введите в поле значение (скажем, 85%), а затем увеличивайте или уменьшайте его, чтобы сделать изображение светлее или темнее.

  3. Чтобы вернуться к странице публикации, на вкладке Эталонная страница нажмите кнопку Закрыть эталонную страницу.

Алгоритм коррекции геометрических искажений, вносимых объективом «рыбий глаз» в изображения и видео

Введение

К настоящему времени фото и видеокамеры с объективами «рыбий глаз» получили очень широкое распространение. Это обусловлено тем, что такое монокоробочное решение в отличие от применения нескольких стационарных или меньшего числа поворотных камер позволяет охватывать область зрения в половину от полного телесного угла (угол обзора 180° по горизонтали и вертикали), а иногда даже и более. В то же время из-за существенных вносимых таким объективом в получаемые изображения или видеокадры геометрических искажений для удобства восприятия получаемой полезной информации приходится использовать цифровую обработку исходных данных, компенсирующую такие искажения. В частности, ставшим уже классическим подходом к решению указанной проблемы является модель Brown–Conrady. Однако до сих пор предлагаются все новые и новые способы решения этой проблемы. И связано это со следующими обстоятельствами. Дело в том, что полная коррекция геометрических искажений сопряжена с соответствующим проецированием изображения со сферической или сфероподобной поверхности на плоскость. А это, в свою очередь, при сохранении пространственного разрешения в центральной области изображения ведет к резкому увеличению размеров «выпрямленного» изображения. Так что приходится это выпрямленное изображение подрезать по периметру и, соответственно, частично терять то даваемое объективом «рыбий глаз» преимущество по полю зрения. И поскольку принципиально невозможно одновременное удовлетворение трех противоречащих друг другу требований (неуменьшение пространственного разрешения изображения, неувеличение размера изображения в пикселях и полная компенсация геометрических искажений), то разработка все более и более сбалансированных моделей является весьма актуальной темой и будет оставаться таковой и в будущем.

Теория и полученные результаты

Рассмотрим одну из таких наиболее часто используемых на практике оптических схем объектива «рыбий глаз», как эквидистантная схема, которая при качественных оптических компонентах имеет лишь радиальную составляющую бочкообразной дисторсии. Её коррекцию в более общей форме по сравнению с классическим представлением в виде степенного ряда по r можно осуществить с помощью равенства

Это равенство однозначно ставит в соответствие значение яркости пикселя для выровненного монохромного изображения (или три значения яркости для выровненного цветного изображения), характеризуемого (характеризуемых) отсчитываемым от центра изображения радиус-вектором rp = (xp, yp), со значением яркости пикселя (значениями яркости пикселей) для исходного изображения, которое характеризуется (которые характеризуются) отсчитываемым от центра изображения радиус-вектором rs = (xs, ys). То есть, равенство (1) с помощью функции f задает правило пересчета принадлежащих плоскости пикселей с координатами rp через принадлежащие полусфере пиксели с соответствующими координатами rs.

Для рассматриваемой оптической схемы можно получить строгое аналитическое выражение для функции f. Оно имеет следующий вид:

Здесь R0 = 2r0, r0 (R0) – это радиус (в пикселях), отвечающий углу pi / 4 (pi / 2) радиан на исходном изображении относительно оси симметрии объектива. Этот параметр уникален для каждой конкретной оптической системы. Равенство (2), очевидно, может быть разложено в ряд Тейлора с оставлением нескольких членов ряда и перенормировкой коэффициентов перед ними для представления функции f в стандартном по модели Brown–Conrady виде. Однако далее будет рассматриваться именно точное выражение для функции f.

Рисунок 1 – Функция преобразования координат из rp в rs согласно равенству (2) при R0 = 1

Согласно рис.1 при условии сохранения исходного пространственного разрешения (здесь и далее имеется ввиду центральная часть изображения) и его размеров после коррекции дисторсии угол обзора оптической системы со 180° сужается до 115° (см. результат на рис.2).

Рисунок 2 – Полная коррекция дисторсии согласно равенству (2) для rp <= R0

Если же увеличить размер выходного изображения по площади вчетверо при сохранении пространственного разрешения, то угол обзора оптической системы увеличится до 145°. Однако дальнейшее значительное увеличение размеров изображения не приводит к существенному увеличению угла обзора. Чтобы разрешить указанное противоречие необходимо модифицировать функцию f в F так, чтобы, с одной стороны, она была максимально близка к исходной в окрестности нуля по rs, а с другой стороны, для минимизации вторичных искажений была максимально линейной в окрестности единицы по rs. Таким требованиям, в частности, очень хорошо удовлетворяет функция F в виде

.

Хотя использование равенства (3) вместо равенства (2) при увеличении площади изображения вчетверо и сохранении пространственного разрешения или при сохранении размеров изображения и уменьшения вдвое пространственного разрешения позволяет зафиксировать широкий угол обзора (180°), в то же время, такая модификация функции f не устраняет бочкообразную дисторсию периферической части изображения (см. рис.3).

Рисунок 3 – Неполная коррекция дисторсии согласно равенству (3) для rp <= 2R0

Чтобы устранить бочкообразную дисторсию периферической части изображения может быть использована существенно нелинейная по r деформация окружностей в квадраты со сглаженными углами в разной степени в зависимости от r (в идеале, по внешнему периметру изображения окружность должна деформироваться в квадрат). Далее приведены выражения, с помощью которых можно осуществлять соответствующую попиксельную трансформацию

.

.

Для окончательной коррекции остаточной дисторсии к полученному с помощью равенства (5) промежуточному результату ещё необходимо применить равенства (1) и (3) в виде

Ниже на рисунках представлены результаты последовательных трансформаций изображений согласно равенствам (5) и (8) с учетом равенств (3), (4), (6) и (7).

Рисунок 4 – Коррекция дисторсии первого изображенияРисунок 5 – Коррекция дисторсии второго изображения

Как видно из этих рисунков, при сохранении пространственного разрешения с увеличением площади исходного изображения всего вчетверо, а также сохранении широкого угла обзора (180°) бочкообразная дисторсия весьма эффективно подавляется по всему полю изображения.

Черные области на всех представленных изображениях отвечают переходам между rs и rp, когда вычисляемый вектор rs лежит за пределами исходного изображения.

Чем отличаются форматы изображений и зачем они нужны

Вадим Сычёв

Одно и то же изображение в разных форматах может иметь разный размер и разное качество. Почему так, для чего используются разные форматы и чем они отличаются — разбираемся в статье.

RAW

Это необработанный файл изображения без сжатия. Вы получаете файлы RAW, делая снимки на цифровом зеркальном фотоаппарате. По этой причине такие файлы огромны — каждый из них легко может занимать 25 МБ. Это подходит для редактирования фотографий, но не для их хранения, поэтому и существует сжатие изображений.

В статье будет использоваться одна и та же фотография для сравнения. В браузере нельзя отобразить её в формате RAW, но просмотр высококачественных фотографий в формате JPEG или PNG должен дать представление о том, как выглядит оригинал. Также для сравнения необработанный файл этой фотографии имеет размер 12,4 МБ.

JPEG

Наиболее распространённый формат изображений JPEG (или JPG) является стандартом организации Joint Photographic Experts Group и часто используется для публикации фотографий и изображений текста в интернете. Формат поддерживает 24 бита на пиксель, по 8 для зелёного, синего и красного, что делает этот формат «truecolor», который может отображать более 16 000 000 цветов.

JPEG способен создавать изображения высокого качества, но это всё равно формат сжатия с потерями. Вот почему вы часто будете видеть варианты «низкое», «среднее» и «высокое» качество при экспорте изображения в формате JPEG. Каждый параметр уменьшает степень сжатия и повышает качество фотографии. Вот фотография в форматах JPEG высокого, среднего и низкого качества с соответствующими размерами.

JPEG высокого качества (качество установлено на 100), размер: 471 КБ

JPEG среднего качества (установлено качество 50), размер: 68 КБ

JPEG низкого качества (качество установлено до 20), размер: 32 КБ

Высококачественный JPEG обычно является хорошим компромиссом между размером и качеством. Однако, как только вы создаёте JPEG среднего и низкого качества, изображение значительно ухудшается. Кроме того, JPEG лучше всего подходит для фотографий или рисунков, у которых меньше резких переходов, чем у текста.

GIF

Graphics Interchange Format (GIF) допускает 8 бит на пиксель, по три на красный и зелёный и два на синий.

Поэтому GIF-файлам доступны 256 цветов, хотя можно получить и больше, используя несколько цветовых блоков с различными 256-цветными палитрами. При сжатии без потерь GIF-файлы могут идеально воспроизводить свои ограниченные цветовые палитры при многократном повторном сжатии.

Вот тестовая фотография в кодировке GIF:

Размер GIF: 194 КБ

Как вы можете видеть, размер относительно невелик, но отсутствие глубины цвета ухудшает качество изображения (это особенно заметно при переходах между светлым и тёмным, например, внутри края синего горшка с жёлтым цветком на правой стороне фото).

Другая важная вещь, которую нужно знать о GIF-файлах, заключается в том, что они могут быть анимированными, чему можно найти множество интересных применений. Используя несколько кадров изображения, нарисованных по порядку, можно создать видимость движения. Помимо создания анимации, формат GIF редко используется из-за его ограниченного цветового пространства.

Более подробно ознакомиться с вариантами использования анимированных GIF-файлов вы можете, перейдя на эту страницу.

PNG

Тип файла Portable Network Graphics, предназначенный для замены GIF, — это ещё один формат сжатия без потерь. Он содержит значительно больше информации, чем его предшественник: 24 или 32 бита на пиксель. 24-разрядная версия содержит информацию RGB, а 32-разрядная использует цветовое пространство RGBA. «A» в RGBA означает «альфа», что обеспечивает разные уровни прозрачности изображения (клетчатый фон, как на рисунке ниже, обычно указывает на прозрачность).

Поскольку PNG-файл содержит гораздо больше информации, он будет немного больше, чем JPEG или GIF.

Размер PNG: 1,5 МБ

Эта фотография PNG выглядит не лучше, чем высококачественный JPEG, хотя важно помнить, что сжатие без потерь будет поддерживать качество фотографии при многократном повторном сжатии. Кроме того, если важна прозрачность, PNG — верное решение.

TIFF

The Tagged Image File Format изначально разрабатывался для сканеров и становился всё более сложным по мере того, как сканеры переходили от чёрно-белого к полутоновому и до полноцветного изображения. Теперь это широко используемый полноцветный тип файла. TIFF-файлы могут быть сохранены в сжатом или несжатом виде, а используемое сжатие может быть с потерями или без. В большинстве случаев будет использоваться сжатие без потерь, хотя, если размер важен, можно пожертвовать качеством.
Поскольку TIFF технически является обёрткой или контейнером файла, он может сохранять изображения с различными битами на пиксель, предоставляя вам возможность иметь очень большое количество цветов, как это было бы с JPEG или PNG.

Примечание Поскольку поддержка TIFF не универсальна в браузерах, показаны высококачественные JPEG-скриншоты TIFF-файлов.

Несжатый размер TIFF: 2,2 МБ

Размер сжатого файла TIFF: 1,6 МБ

Эти файлы изображений без потерь немного объёмнее, чем форматы JPEG или GIF, но они содержат гораздо больше информации. Хотя в интеренете вы не видите TIFF так же часто, как другие форматы, он очень широко используется и может быть открыт практически любой программой для редактирования изображений.

BMP

Это старый формат, который уже не так часто используется. Из-за проблем с отображением этого формата в браузерах используется скриншот BMP в высококачественном JPEG ниже, чтобы вы могли увидеть, как он выглядит.

BMP (bitmap) — это, прежде всего, формат для Windows, и стандарт поддерживается Microsoft. Как и TIFF, он может хранить произвольное количество бит на пиксель, вплоть до 64, а значит, он содержит много информации об изображении. Этот формат может содержать данные о прозрачности, но некоторые приложения Microsoft не позволяют их читать.

Короче говоря, если у вас есть BMP, конвертируйте его во что-то другое. Всё будет работать лучше.

Размер BMP: 1,1 МБ

Какой формат изображений лучше использовать?

Короткий ответ: для большинства целей PNG — очень достойный вариант. Особенно если изображения большого размера. Например, для печати фотографий размером 8×10 и более. Различие между типами файлов наиболее очевидны на напечатанных фотографиях. А сжатие без потерь означает, что качество будет поддерживаться в течение нескольких циклов сжатия.

JPEG высокого или даже среднего качества, скорее всего, подойдёт, если вам нужна более высокая степень сжатия, например для отправки фотографий по электронной почте.
TIFF в основном полезен, если вы знаете, как настроить определённые параметры. Следует избегать как GIF, так и BMP (если, конечно, вы не создаёте анимированные GIF). Рекомендуется хранить RAW-файлы, чтобы вы всегда могли редактировать свои фотографии прямо из исходника.

Перевод статьи «JPEG, GIF, or PNG? Image Filetypes Explained and Tested»

Текст песни r1G1n — Девушка с картинки перевод, слова песни, видео, клип

Просмотров: 3
0 чел. считают текст песни верным
0 чел. считают текст песни неверным

Тут находится текст песни r1G1n — Девушка с картинки, а также перевод, видео и клип.

И пусть я не мускулист, но
Для тебя я спою на бис,
Ты далеко, теперь смотри…
я с тобой мыслями не чист.

А ты на первом канале, как и на моем постере,
Он, как и монитор запачкан пошлыми историями,
Ты – девушка с картинки, тебе не видан страх и стыд,
О том, что о тебе мечтают миллионы, знаешь ты.
Эй, малыш, я тут жду тебя, смотри как я готовлюсь,
Я готов ради тебя поиграть в звездо-ловлю,
Только дай не шанс или хотя бы номер айфона,
Я позвоню, не испугаюсь от твоих фанатов боли.
Я знаю, что со сцены ты подмигиваешь мне,
Я в ответ тебе поэму, лишь бы только взгляд горел.
Ты по гастролям по России, по ночам мешает икота,
Пусть мне будет стыдно, но ночью мечтаю о тебе только,
В твоей модной сумочке нет похоже места чувствам,
ОТ одной мысли о твоем партнере мне уже грустно,
Знай я пройду всевозможные курсы, сделаю операцию,
Я буду лучшим для тебя, и за ночь много раз порадую.

И пусть я не мускулист, но
Для тебя я спою на бис,
Ты далеко, теперь смотри…
я с тобой мыслями не чист.

Твои ноги по подиуму вышагивают гордо,
Длинное платье – приказала летняя мода,
Но всё равно край сцены покрыт слюнями папарацци,
Они забыли про фото, руки у всех глубоко в карманах,
Если выходишь ты на улицу – только по красной дорожке,
Будешь моей…. Меня обнадежьте.
Парни готовы собирать за тобой бычки из под сигарет,
Будет глупо считать кто и сколько для тебя песен спел,

And let me not a muscular, but
For you, I will sing on the bis,
You are far away, now see …
I’m not clean with your thoughts.

And you are on the first channel, as in my poster,
He, like the monitor blurred by vulgar stories,
You are a girl with a picture, you are not visited by fear and shame,
About the fact that millions dream of you, you know.
Hey, kid, I’m waiting for you, look how I get preparing,
I am ready for you to play star-catch,
Just give not a chance or at least the iPhone number,
I’ll call, I do not get frightened from your pans of pain.
I know that from the scene you wink to me
I am in response to you a poem, just only a look burned.
You are touring in Russia, IKOT hinders at night,
Let me be ashamed, but I dream about you only,
In your trendy handbag, there is no one like the place of feelings,
From one thought about your partner, I am already sad,
Know I will go through all sorts of courses, I will make an operation,
I will be the best for you, and I will please many times overnight.

And let me not a muscular, but
For you, I will sing on the bis,
You are far away, now see …
I’m not clean with your thoughts.

Your legs on the podium are disturbing proudly,
Long dress — ordered a summer fashion,
But still the edge of the scene is covered with saliva paparazzi,
They forgot about photos, everyone deep in his pockets
If you go out to the street — only on the red carpet,
Will be mine…. I will encourage me.
Guys are ready to collect bugs from under cigarettes for you,
It will be stupid to consider who and how many songs for you sang,

Опрос: Верный ли текст песни?

ДаНет

Вконтакте

Facebook

Twitter

Мой мир

Одноклассники

Google+

Сохранение проекта из канвы—ArcGIS Excalibur

В этом разделе

После поиска изображений и подключения к канве у вас есть возможность сохранить свою работу в проекте изображений. Щелкните Сохранить, чтобы сохранить результаты работы с изображениями. Для сохранения необходимы соответствующие права. Кнопка Сохранить отображается в заголовке панели инструментов в виде канвы, если у вас есть соответствующие права.

Сохранение проекта

Чтобы сохранить свою работу в проекте, выполните следующие шаги:

  1. Щелкните Сохранить на панели инструментов канвы.

    Появится диалоговое окно Создать проект изображений.

  2. Укажите информацию для следующих параметров:
    • Заголовок (Обязательно)

      Это имя должно быть уникальным. Если в ваших ресурсах будет обнаружено указанное имя, на портале будет создана новая папка с тем же именем и добавленным словом копия.

    • Общая информация (дополнительное)
    • Инструкции (обязательно)
      Подсказка:

      Вы можете выделить свои инструкции, щёлкнув Полужирный или Курсив. Также вы можете создать список, щёлкнув Неупорядоченный список или Нумерованный список.

  3. Выберите, опубликовать свой проект в вашей организации или оставить частным.

    По умолчанию – Да.

  4. Если вы выбрали изображения из Таблицы метаданных изображения, есть возможность использовать в проекте только эти изображения. Отметьте опцию Ограничить изображения проекта выбранными записями в таблице метаданных, если вы хотите использовать только выбранные в таблице изображения.

    Эта опция по умолчанию не включена.

  5. Щёлкните Создать, чтобы создать ваш проект. Щелкните Сброс, чтобы очистить все заполненные поля. Дополнительно, закройте диалоговое окно, чтобы вернуться к канве.

    Появится загрузчик, и вы получите уведомление, как только ваш проект будет успешно создан.

    Также появится заголовок вашего проекта с отображением внесенных изменений, а на портале будет создана папка проекта.

  6. Продолжите работу над проектом и щелкните Сохранить, чтобы обновить прогресс.

    Для сохранения и обновления проекта необходимо быть его владельцем.

Вы можете продолжать работу над проектом или внести дополнительные изменения на странице Информация о проекте.

Сохранение разметки в проекте

Вы можете сохранить созданную вами разметку как коллекцию объектов, которая хранится в проекте изображений. См. Инструменты Разметки, чтобы узнать, как использовать эти инструменты. Как только вы закончите разметку изображений, щелкните Сохранить, чтобы обновить проект. Появится уведомление о том, что прогресс будет сохранен и доступен для просмотра после повторного открытия проекта.

Статус проекта

Когда проект открывается в виде канвы, отражается предыдущее состояние, в котором он был сохранен. Это включает в себя:

  • Экстенты изображений
  • Блокировку экстентов
  • Фокус изображения
  • Слой изображений
  • Состояние канвы
  • Выбранные изображения

Добавьте слой наблюдения в проект изображений

Вы можете добавить существующий слой наблюдений в свой проект изображений, чтобы собрать наблюдения из ваших изображений или создать новый слой наблюдений в соответствии с потребностями вашего проекта, используя информацию о проекте. Чтобы добавить слой наблюдений, см. разделы Выбрать существующий слой наблюдений и Создать слой наблюдений.


Отзыв по этому разделу?

Media Translation — Как перевести изображения вашего сайта

Если вы локализуете свой веб-сайт и уделяете особое внимание этапу перевода контента, важно помнить, что перевод веб-сайта — это нечто большее, чем просто перевод слов на вашем сайте.

Да, это верно — изображения, видео, PDF-файлы и другая документация играют ключевую роль в создании по-настоящему локализованного опыта для людей, посещающих ваш веб-сайт.

Фактически, отсутствие перевода этого типа «контента» может дать неверное сообщение потенциальным клиентам на ваших новых целевых рынках.К сожалению, это часто воспринимается как то, что ваша компания не вкладывает столько средств в предоставление каждому клиенту одинакового опыта работы с веб-сайтом, вместо этого отдавая предпочтение тем, которые написаны на вашем исходном языке.

Итак, давайте посмотрим, почему медиа-перевод так важен, наши советы по его правильному выполнению и, в конечном итоге, как вы можете добиться этого с помощью Weglot в качестве решения для перевода вашего веб-сайта.

Зачем переводить медиаконтент?

Вы, наверное, видели, как мы упоминали персонализацию более чем в одной из наших последних статей в блоге, и это потому, что это действительно «король», когда дело доходит до предоставления более убедительного предложения.На самом деле, Econsultancy обнаружила, что 93% компаний видят увеличение коэффициента конверсии благодаря персонализации.

Если вы хотите привлечь новую аудиторию, продавать товары или услуги и повышать узнаваемость бренда, перевод всего вашего веб-сайта , вплоть до изображений и видеоконтента, может помочь в этом.

Перевод слов на вашем веб-сайте — это первый шаг. Благодаря этому посетители вашего сайта смогут полностью понять, что вы делаете или предлагаете. После этого следующим шагом будет завершение процесса перевода с локализованными изображениями, заменой видео и PDF-документами.

Вам нужен медиа перевод?

Короче говоря, ответ да . Точно так же, как вы переводите свой текст, чтобы его могли понять иностранные зрители, то же самое касается изображений и видеоконтента. Например, на целевой странице вашего сайта может быть пояснительное видео, показывающее, что представляет собой ваш продукт или услуга и как они работают.Конечно, если вы ориентируетесь на англо-, франко-, немецко- и испаноязычные рынки, имеет смысл показывать версию этого видео на другом языке, соответствующем языку, на котором посетитель просматривает страницу. 

Еще одна причина, по которой вы можете захотеть переводить медиафайлы на своем сайте, заключается в том, что вы должны чутко и с пониманием относиться к культурным нюансам. Например, предположим, что вы — глобальный универмаг, имеющий магазины в западном мире и на Ближнем Востоке.

Возможно, вы показываете на своем сайте какой-то праздничный контент, посвященный тому, что многие в западном мире считают Рождеством.Но для регионов, где Рождество обычно не празднуют, рекомендуется адаптировать любой контент, подобный этому, для целевой аудитории. Это показывает, что вы поддерживаете связь со своей клиентской базой и заботитесь о предоставлении максимально персонализированного опыта.

Передовой опыт перевода изображений

Когда дело доходит до перевода ваших изображений, вам необходимо учитывать ряд факторов, чтобы убедиться, что вы следуете рекомендациям: 

Сам файл: Если вы используете разные или измененные версии изображения для определенной языковой версии вашего сайта, вы можете начать с использования другого URL-адреса изображения для каждой версии.Исходя из этого, хорошей практикой является локализация имени файла для целей SEO изображения.

Текст на изображении: Если у вас есть текст на самом изображении, обязательно переведите его, чтобы целевая аудитория могла его понять. Переводимые файлы SVG значительно облегчают этот процесс.

Альтернативный текст изображения: Метаданные играют чрезвычайно важную роль, когда дело доходит до SEO, и для изображений это не исключение. Переводя эти метаданные, вы повышаете доступность своего контента.

Ссылка на изображение: Скажем, например, на вашем сайте есть изображение, ведущее на другую страницу вашего сайта. Эта ссылка должна быть изменена в зависимости от языка, используемого посетителями для оптимизации UX.

Обратите внимание, что для любых изображений на вашем веб-сайте также рекомендуется избегать использования текста в любых изображениях. Сохранение текста поверх изображения — идеальный компромисс, поскольку он позволяет переводить письменный контент и соответствующим образом изменять файл изображения.

Как перевести ваши медиафайлы с помощью Weglot 

Поскольку медиаперевод является не только ключевым аспектом персонализации для ваших клиентов, но и положительно влияет на многоязычную поисковую оптимизацию, важно использовать решение для перевода, которое позволяет переводить не только текстовые компоненты. К счастью, при использовании Weglot в качестве решения для перевода вы обнаружите, что оно легко удовлетворяет все ваши потребности в медиа-переводе.

Перевод мультимедиа с помощью панели инструментов Weglot

Если вы хотите перевести определенный медиафайл из панели инструментов Weglot, перейдите на вкладку «Переводы» и щелкните языковую пару, которую вы хотите отредактировать.Прокрутите страницу вниз, и вы увидите «Добавить перевод мультимедиа».

Нажмите на эту кнопку. Появится всплывающее окно с просьбой добавить исходный URL-адрес медиафайла и URL-адрес медиафайла, которым вы хотите его заменить.

URL исходного медиафайла можно найти, щелкнув изображение правой кнопкой мыши и просмотрев источник.

Затем загрузите замещающее изображение через раздел управления мультимедиа вашей CMS веб-сайта. Добавьте этот URL-адрес во второе поле и нажмите «Добавить».

Теперь ваше изображение заменено на новый язык и появится в вашем списке переводов. Затем вы можете отфильтровать свой список переводов по медиа, чтобы увидеть свои медиа элементы.

Однако, чтобы полностью оптимизировать ваши изображения для целей SEO, рекомендуется проверять альтернативный текст изображения.

Для этого вернитесь к списку переводов и отфильтруйте по «Мета». Здесь вы сможете увидеть альтернативный текст для каждого из ваших медиафайлов. Прокрутите вниз, чтобы найти альтернативный текст, соответствующий вашему изображению, и убедитесь, что вас устраивает перевод.Weglot автоматически переводит альтернативный текст вашего изображения, однако рекомендуется перепроверить его, чтобы убедиться, что вы полностью оптимизированы для целей SEO.

Перевод мультимедиа с помощью инструмента визуального редактора

Конечно, хотя перевод мультимедиа из вашего списка переводов является одним из вариантов, мы также предоставляем другой вариант перевода ваших мультимедиа с помощью нашего контекстного редактора.

Примечание , чтобы получить доступ к изображениям и перевести их через визуальный редактор, вам все равно потребуется выполнить описанные выше шаги, чтобы добавить определенный медиафайл в список переводов.

Чтобы получить доступ к этому инструменту, который позволяет редактировать ваши переводы в режиме предварительного просмотра вашего веб-сайта, просто перейдите на вкладку «Переводы» на панели управления Weglot и щелкните вкладку «Визуальный редактор» ниже.

Как только вы это сделаете, вам будет предложено перейти на целевую страницу визуального редактора. Нажмите «Начать редактирование», и вы попадете на главную страницу своего сайта. Прокручивая свой сайт, вы заметите, что переводимые элементы выделены, как показано ниже. Чтобы перевести изображение (тот, который был добавлен в ваш список переводов), просто нажмите на значок карандаша, который расположен в правом верхнем углу каждого выделенного элемента.

Во многом аналогично тому, как этот процесс выполняется в вашем списке переводов, просто измените URL-адрес переведенного языка.

Как только вы нажмете «ОК», этот перевод изображения будет автоматически сохранен. Поскольку вы уже находитесь на своем действующем сайте, вы можете просто использовать переключатель языка, чтобы перейти на другую языковую версию сайта и посмотреть, как выглядит новое изображение. Важно отметить, что вы также можете использовать визуальный редактор для перевода альтернативного текста изображения точно так же, как показано на снимке экрана выше.

Примечание: Хотя в этой статье мы показали вам только примеры того, как переводить изображения, тот же метод применим к видео и другим типам мультимедиа. Следуя той же методике, этого можно добиться либо с помощью списка переводов, либо с помощью визуального редактора.

Заключение 

Поскольку 67% из нас во всем мире вовлечены в трансграничную электронную коммерцию, компании, работающие за границей, сейчас конкурируют друг с другом более интенсивно, чем когда-либо.Коммерческие предложения практически не отличаются друг от друга, поэтому вознаграждаются те предприятия, которые делают все возможное. Медиа-перевод является чрезвычайно важным, но часто упускаемым из виду аспектом международного бизнеса сегодня, приносящим двойную пользу.

На практическом уровне медиа-перевод может помочь вашим усилиям по поисковой оптимизации и увеличить трафик и последующие продажи. Однако на более клиентоориентированном уровне медиаперевод посылает вашим международным клиентам сообщение о том, что вы заботитесь о них и хотите предложить персонализированный потребительский опыт.

К счастью, медиа-перевод никогда не был более доступным и простым благодаря интуитивным решениям для перевода и локализации, таким как Weglot.

Чего ты ждешь? Почему бы не попробовать 10-дневную бесплатную пробную версию Weglot и убедиться, насколько простым может быть медиа-перевод.

Преобразование изображений — обзор

11.3 Задача преобразования изображения в изображение

Задача преобразования изображения в изображение — одно из важных достижений в области глубокого обучения, применяемого к обработке изображений.Эту задачу можно описать как преобразование пространства признаков изображения в другое. Приложения включают преобразование аэрофотоснимков в карты, удаление фона с изображений и раскрашивание черно-белых изображений. Генеративные сети оказались весьма полезными для этого. Цель сети состоит в том, чтобы изучить карту между входным и целевым изображениями, чтобы надлежащим образом преобразовать первое во второе. То есть, если U — множество входных изображений, а T — множество целевых изображений, обученная генераторная сеть должна быть такой, что G:U→T и распределение изображений G(U) неотличимо от распределения изображений в Т.

CNN продемонстрировали замечательные результаты в нескольких областях, включая классификацию медицинских изображений. Очевидным недостатком этого класса сетей является потребность в больших объемах данных для реализации полного потенциала CNN. Кроме того, некоторые проблемы в медицинской визуализации требуют классификации на уровне пикселей; например, сегментация медицинских изображений. Архитектура U-net основана на полностью подключенной CNN [26]. Пути расширения и сокращения несколько симметричны, что приводит к U-образной архитектуре.Некоторые из принципиальных отличий от типичных CNN заключаются в том, что слои объединения заменены слоями повышающей дискретизации, а последующие сверточные слои имеют большое количество фильтров. Кроме того, для компенсации меньших наборов данных используется обширное увеличение данных.

Отметим, что U-net по сути является автоэнкодером (AE). В общем, AE — это сети, используемые для обучения кодированию, и они преимущественно используются в неконтролируемом обучении [65]. Они состоят из кодера и декодера, первый для кодирования распределения данных в скрытое пространство или узкое место, а второй для декодирования этого скрытого пространства.AE обычно используются для анализа основных компонентов.

Условные GAN (CGAN) [66] исследуются в Ref. [62] для решения проблемы перевода изображения в изображение. Здесь пара сетей изучает условную генеративную модель [1], что делает их подходящими для решения таких проблем. В исх. [62], генератор представляет собой описанную ранее архитектуру U-сети, которая позволяет ему кодировать изображения в узкое место. Дискриминатор — это сверточный классификатор PatchGAN, который позволяет сети выполнять классификацию на уровне патчей.Это побуждает генератор изучать функции уровня исправления. В отличие от обычных GAN, в которых генеративные модели изучают отображение вектора случайного шума z в выходное изображение y=G(z), CGAN изучают отображение входного изображения и вектора шума в выходное изображение: y= G (х, z). Таким образом, целевая функция для CGAN может быть описана как Тогда CGAN выглядит следующим образом:

argminGmaxDJG,D

Это можно упорядочить следующим образом:

(11.17)argminGmaxDJG,D+λEx,y,z∥y−G(x,z)∥1

, где метрика L1 предпочтительнее метрики L2 для смягчения эффекта размытия [67].

Используемый нами дискриминатор — сверточный классификатор PatchGAN, первоначально предложенный в Ref. [68]. Генератор с функцией расстояния L1 точно улавливает низкие частоты. Соответственно, дискриминатору GAN необходимо обеспечивать правильность только на более высоких частотах. Для этого достаточно ограничить внимание структурой в локальных фрагментах изображения, что приводит к терминологии PatchGAN, которая наказывает структуру только в масштабе патчей.Таким образом, дискриминатор классифицирует на основе того, является ли каждое пятно P × P на изображении реальным или поддельным. Это выполняется сверточно по изображению и усредняет ответы, чтобы получить выходное изображение. PatchGAN эффективен с вычислительной точки зрения, поскольку имеет меньше параметров, работает быстрее и может применяться к изображениям произвольного размера. Математическая основа заключается в том, что он моделирует изображение как марковское случайное поле, предполагая, что пиксели, разделенные расстоянием, превышающим размер участка, статистически независимы.Эта идея была успешно использована как для текстуры, так и для стиля.

Таким образом, сквозной конвейер для задачи преобразования изображения в изображение использует автоэнкодер (U-net) в качестве нашего генератора и дискриминатора PatchGAN. Последний обучается отличать реальные изображения (фактические данные) от поддельных или синтезированных изображений. Целью автоэнкодера является преобразование из доменного пространства в другое, используя изученное преобразование, закодированное в скрытом пространстве. Напротив, цель дискриминатора состоит в том, чтобы различать реальные и поддельные изображения.

Преобразование непарного изображения в изображение с помощью CycleGAN

Янн ЛеКун, директор по исследованиям искусственного интеллекта в Facebook и профессор Нью-Йоркского университета, назвал генеративно-состязательные сети (GAN) самой интересной идеей в машинном обучении за последние 10 лет. С момента изобретения GAN в 2014 году Яном Гудфеллоу мы видели массу вариантов этих интересных нейронных сетей от нескольких исследовательских групп, таких как NVIDIA и Facebook, но мы собираемся рассмотреть один от исследовательской группы Калифорнийского университета в Беркли под названием . Циклическая согласованная состязательная сеть. Прежде чем мы углубимся в циклически согласованную состязательную сеть, для краткости CycleGAN, мы рассмотрим, что такое генеративно-состязательная сеть. Эта статья предназначена для того, чтобы дать представление о рабочем механизме генеративно-состязательной сети и одного из ее популярных вариантов, циклически согласованной состязательной сети. Большая часть используемого здесь кода была взята с официальной страницы документации TensorFlow. Полный код для этой статьи можно получить по адресу: https://www.tensorflow.org/beta/tutorials/generative/cyclegan

Генеративно-состязательная сеть

Генеративно-состязательная сеть — это тип нейронной сети, обычно состоящий из двух нейронных сетей, настроенных состязательным образом. Что я имею в виду под состязательным способом, так это то, что они работают друг против друга, чтобы быть лучше в том, что они делают. Эти две сети называются генератором и дискриминатором . Первая GAN была предложена Яном Гудфеллоу в 2014 году, и после его работы мы увидели несколько GAN, некоторые с архитектурной новизной, а другие с улучшенной производительностью и стабильностью.Так что же такое генеративно-состязательная сеть? С точки зрения непрофессионала, генеративно-состязательная сеть — это тип генеративной модели, состоящей из двух моделей, где одна модель пытается генерировать изображения или некоторые другие данные из реальной жизни, очень близко глядя на исходное реальное изображение или данные, чтобы обмануть другую модель, в то время как другая модель оптимизирует себя, просматривая сгенерированные изображения и аутентичные изображения, чтобы не быть обманутым генерирующей моделью. В литературе по GAN модель, генерирующая изображения, называется генератором, а модель, гарантирующая, что генератор создает аутентичные изображения, называется дискриминатором.Давайте попробуем понять GAN, используя сценарий «детектив-грабитель». В этом сценарии грабитель, действующий как генератор, постоянно показывает поддельную денежную купюру детективу, который действует как дискриминатор. На каждом этапе этого процесса детектив обнаруживает, что банкнота фальшивая, отбрасывает деньги и сообщает грабителю о том, что делает банкноту фальшивой. Грабитель также на каждом этапе берет записку у сыщика, использует информацию от сыщика для создания новой заметки-заметки, а затем снова показывает ее сыщику.Это продолжается до тех пор, пока грабителю не удастся создать записку, которая выглядит достаточно аутентично, чтобы обмануть детектива. Именно так работает генеративно-состязательная сеть. Генератор непрерывно создает синтетические изображения и оптимизируется, получая сигнал от дискриминатора до тех пор, пока распределение синтетических изображений почти не совпадет с распределением исходных изображений.

Один этап обучающей итерации GAN включает три этапа:

  • сначала дискриминатору показывают набор реальных изображений и его веса, оптимизированные для классификации этих изображений как реальных изображений (реальные изображения помечены как 1)
  • затем мы создайте пакет поддельных изображений с помощью генератора, покажите эти поддельные изображения дискриминатору, а затем оптимизируйте веса дискриминатора, чтобы классифицировать эти изображения как поддельные изображения (поддельные изображения, помеченные как 0)
  • третий шаг включает в себя обучение генератора.Мы генерируем пакет поддельных изображений, показываем эти поддельные изображения дискриминатору, но вместо оптимизации дискриминатора для классификации этих изображений как поддельных мы оптимизируем генератор, чтобы заставить дискриминатор классифицировать эти поддельные изображения как настоящие изображения.

Запутались? Давайте разберем их, и вы увидите, насколько это просто.
Как упоминалось ранее, сначала мы показываем дискриминатору набор реальных изображений и оптимизируем его, чтобы классифицировать эти реальные изображения как настоящие. Предположим, что реальные изображения имеют метку 1, а в качестве функции потерь используется простая абсолютная средняя ошибка.Давайте также сформулируем математическое выражение для дискриминатора. Мы будем использовать f (x), где f (.), представляющее дискриминатор, представляет собой нейронную сеть с прямой связью или сверточную сеть, а x — реальное изображение или пакет реальных изображений. С указанными выше параметрами наша функция потерь должна выглядеть примерно так: | f(x) — 1 | (среднее значение опущено для простоты). Подача пакета реальных изображений и обратное распространение этого сигнала потерь через дискриминатор для оптимизации просто означает, что всякий раз, когда наш дискриминатор видит реальные изображения, мы хотим, чтобы он предсказывал значение, действительно близкое к 1.Тот же процесс используется для второго шага, но вместо этого мы помечаем поддельные изображения, сгенерированные генератором, как 0, поэтому функция потерь выглядит следующим образом: | ф(х)-0 | = | е(х) |. Обратное распространение этого сигнала потерь через дискриминатор и оптимизация его весов означает, что всякий раз, когда дискриминатору показывается фальшивое изображение, мы хотим, чтобы он предсказывал значение, очень близкое к 0, которое является меткой фальшивого изображения. В отличие от шагов 1 и 2. где мы обучаем только дискриминатор, третий шаг пытается обучить генератор.Мы показываем, как дискриминатор подделывает изображения, сгенерированные генератором, но на этот раз мы используем сигнатуру потери шага:   | f(x) — 1 | . Затем мы распространяем сигнал потерь обратно от дискриминатора к генератору и оптимизируем веса генератора с помощью этого сигнала потерь. Это синоним того, что дискриминатор информирует генератор об изменениях, которые ему необходимо внести, чтобы сгенерировать фальшивое изображение, которое заставит дискриминатор классифицировать его как реальное.

Воплотите этот проект в жизнь

Вероятно, вам интересно, как генератор создает изображения.Первоначально предложенный GAN генерирует изображения, принимая в качестве входных данных вектор фиксированного размера из равномерного распределения и постепенно увеличивая пространственный размер этого вектора для формирования изображения. Некоторые недавно изобретенные GAN, такие как CycleGAN, похоже, отклонились от этой архитектуры генератора.

Задача преобразования изображения в изображение

Преобразование изображения в изображение существовала задолго до изобретения CycleGAN. Одним из действительно интересных является работа Филиппа Изола и др. в статье «Преобразование изображений в изображения с условными состязательными сетями», где изображения из одного домена переводятся в изображения в другом домене.Набор данных для этой работы состоит из выровненных пар изображений из каждого домена. Эта модель получила название Pix2Pix GAN.

Подход, используемый CycleGAN для выполнения преобразования изображения в изображение, очень похож на Pix2Pix GAN, за исключением того факта, что для обучения CycleGAN используются непарные изображения, а целевая функция CycleGAN имеет дополнительный критерий, потеря согласованности цикла. . На самом деле обе статьи написаны почти одними и теми же авторами.

Как я упоминал ранее, некоторые последние GAN имеют другой архитектурный дизайн генератора.Pix2Pix GAN и CycleGAN являются основными примерами GAN с такой другой архитектурой. Вместо того, чтобы принимать в качестве входных данных вектор фиксированного размера, он берет изображение из одной области в качестве входных данных и выводит соответствующее изображение в другой области. В этой архитектуре также используется пропущенное соединение, чтобы обеспечить передачу большего количества функций от входа к выходу во время прямого распространения и градиенты от потерь к параметрам во время обратного распространения. Архитектура дискриминатора почти такая же. В отличие от первоначально предложенной архитектуры, которая классифицирует все изображение как реальное или поддельное, архитектура, используемая в этих GAN, классифицирует фрагменты изображения как настоящие или поддельные, выводя в качестве вывода матрицу значений вместо одного значения.Причина этого в том, чтобы поощрить четкие высокочастотные детали, а также уменьшить количество параметров.

Кроме того, одним из основных различий между Pix2Pix GAN и CycleGAN является то, что в отличие от Pix2Pix GAN, который состоит только из двух сетей (дискриминатора и генератора), CycleGAN состоит из четырех сетей (два дискриминатора и два генератора). Давайте посмотрим на целевую функцию CycleGAN и на то, как ее обучить.


Целевая функция

Ранее я упоминал, что обучение GAN состоит из трех шагов, и первые два шага обучают дискриминатор.Давайте посмотрим, как. Мы собираемся объединить объективную потерю дискриминатора и реализовать ее в одной функции Python.

  loss_obj = tf.keras.losses.BinaryCrossentropy(from_logits=True)

def DISCINTOR_LOSS (реальный, сгенерированный):
  real_loss = loss_obj(tf.ones_like(real), real)

  сгенерированный_убыток = убыток_объекта (tf.zeros_like (сгенерированный), сгенерированный)

  total_disc_loss = реальный_убыток + сгенерированный_убыток

  вернуть total_disc_loss  

Обратите внимание, что вместо использования средней абсолютной ошибки мы используем бинарную функцию кросс-энтропийной потери.Реальная цель потерь принимает в качестве входных данных выходные данные дискриминатора, когда реальное изображение подается в дискриминатор и матрицу единиц. Напомним, что когда мы подаем реальное изображение в наш дискриминатор, мы хотим, чтобы он предсказывал значение, близкое к единице, поэтому мы увеличиваем эту вероятность в этой целевой функции. То же правило применяется и к generate_loss — мы увеличиваем вероятность того, что дискриминатор предскажет значение, близкое к нулю, когда мы подаем поддельное изображение, созданное генератором, в дискриминатор.Мы добавляем обе потери для обратного распространения и обучения дискриминатора. Далее обучаем генератор.

 
деф генератор_потеря (сгенерированный):
  возврат loss_obj (tf.ones_like (сгенерированный), сгенерированный)  

Мы загружаем фальшивые изображения из генератора в дискриминатор и вместо того, чтобы увеличивать вероятность предсказания дискриминатором значения, близкого к единице, мы настраиваем генератор, чтобы заставить дискриминатор предсказывать значение, близкое к единице. Это эквивалентно обратному распространению градиентов к генератору и обновлению его весов с помощью градиентов.Предположим, что генератор G сопоставляет изображения из домена X с Y, а F сопоставляет изображения из домена Y с X. Согласно статье, эти состязательные потери гарантируют только то, что изученное отображение G и F дает выходные данные, которые соответствуют распределению Y и X соответственно, но визуально не идентичны изображениям в соответствующем домене. Например, предположим, что мы обучаем G отображать изображения из области, содержащей изображения летних сцен, в область, содержащую изображения зимних сцен. Поскольку для обучения отображению используются только потери противника, когда мы отображаем изображение x из области X с помощью G, создается изображение y, которое соответствует только распределению Y и, следовательно, может быть любой случайной перестановкой изображений в области Y, которая может не совпадать с входным изображением, x.Отображения G и F являются отображениями с недостаточным ограничением, и, чтобы уменьшить пространство возможных отображений, авторы ввели потерю согласованности цикла, чтобы увеличить потерю состязательности. Они предположили, что для дальнейшего ограничения отображений отображения должны быть циклически согласованными. Это означает, что для каждого изображения x из домена X перевод изображения в домен Y и обратно в домен X должен вернуть x к исходному изображению. то есть x → G(x) → y → F(y) ≈ x. Это эквивалентно x→G(x)→F(G(x)) ≈ x.Они называют это последовательностью прямого цикла. Точно так же для каждого изображения y из домена Y, G и F должны удовлетворять отображению y → F(y) → G(F(y)) ≈ y (согласованность обратного цикла).

  def calc_cycle_loss (real_image, cycled_image):
      потеря1 = tf.reduce_mean (tf.abs (real_image - cycled_image))
      
      вернуть ЛЯМБДА * потеря1
    #lambda должен придать вес этой целевой функции
  

Мы вводим последнюю функцию потери, потерю идентичности, которая дополнительно гарантирует, что выходные данные сопоставления визуально совпадают с изображениями из домена, на который они сопоставляются.

 
    защита identity_loss (реальное_изображение, такое же_изображение):
      потеря = tf.reduce_mean (tf.abs (real_image - тот же_image))
      возврат лямбда * 0,5 * потеря
    #LAMBDA должен придать вес этой целевой функции
  

Модели

В документе для этой работы авторы использовали более совершенную архитектуру своей генераторной сети. Он состоит из пропусков соединений, аналогичных соединениям в остаточной сети, но мы собираемся использовать модель Unet, реализованную в модуле примеров TensorFlow.Мы можем загрузить и установить модуль с https://github.com/tensorflow/examples или использовать:

  !pip install git+https://github.com/tensorflow/examples.git  

Чтобы получить доступ к моделям из пакета примеров TensorFlow, используйте фрагмент:

 
из tensorflow_examples.models.pix2pix импортировать pix2pix

генератор_г = pix2pix.unet_generator(ВЫХОДНЫЕ_КАНАЛЫ, norm_type='instancenorm')
генератор_f = pix2pix.unet_generator(ВЫХОДНЫЕ_КАНАЛЫ, norm_type='instancenorm')

дискриминатор_x = пикс2пикс.дискриминатор (norm_type = 'instancenorm', target = False)
compiler_y = pix2pix.distancetor(norm_type='instancenorm', target=False)  

Генератор состоит из слоев понижающей и повышающей дискретизации. Входное изображение сначала проходит через последовательные слои понижающей дискретизации, что уменьшает пространственный размер изображения или пакета изображений. Понижение частоты дискретизации достигается транспонированием сверточных слоев. После достаточной пониженной дискретизации входного изображения мы повышаем его дискретизацию, чтобы увеличить его пространственное измерение для формирования изображения.Повышение частоты дискретизации достигается с помощью сверточных слоев.

изображение того, как должна выглядеть наша модель генератора.

Как уже обсуждалось, дискриминаторная сеть представляет собой сеть с прямой связью, точнее, сверточную нейронную сеть, которая выводит матрицу значений, где каждое значение представляет собой решение дискриминатора в отношении патча или небольшой области на входном изображении. Таким образом, вместо того, чтобы классифицировать все изображение как поддельное или настоящее, он принимает это решение по заплатам на изображении.

мы уже обсуждали причину такой архитектуры.

Данные

Получение данных для генеративно-состязательной сети может быть довольно сложной задачей. К счастью для нас, модуль набора данных TensorFlow состоит из нескольких наборов данных с непарным выравниванием изображений. Вы можете установить модуль с помощью этой простой команды:

  pip install tensorflow-datasets  

После установки модуля получите доступ к набору данных, используя следующий код:

 
    набор данных, метаданные = tfds.load('cycle_gan/horse2zebra',
                                  with_info=Истина, as_supervised=Истина)
    
    train_X, train_Y = набор данных ['trainA'], набор данных ['trainB']
    test_X, test_Y = набор данных ['testA'], набор данных ['testB']
  

Обратите внимание, что мы используем набор данных с доменами «лошади» и «зебры».Здесь есть масса других непарных наборов данных: https://www.tensorflow.org/datasets/catalog/cycle_gan. Просто замените «horse2zebra» в функции загрузки на набор данных по вашему выбору. Теперь, когда у нас есть набор данных, нам нужно построить эффективный конвейер для подачи набора данных в нейронные сети. API tf.data предоставляет нам все инструменты для создания этого пайплайна.

 
    определение random_crop (изображение):
      cropped_image = tf.image.random_crop(
          изображение, размер = [IMG_HEIGHT, IMG_WIDTH, 3])
      вернуть обрезанное_изображение
    
    # нормализация изображений до [-1, 1]
    def нормализовать (изображение):
      изображение = тф.приведение (изображение, tf.float32)
      изображение = (изображение / 127,5) - 1
      вернуть изображение
    
    определение random_jitter (изображение):
      # изменение размера до 286 x 286 x 3
      изображение = tf.image.resize(изображение, [286, 286],
                              метод = tf.image.ResizeMethod.NEAREST_NEIGHBOR)
      # случайное кадрирование до 256 x 256 x 3
      изображение = random_crop (изображение)
      # случайное зеркалирование
      изображение = tf.image.random_flip_left_right (изображение)
      вернуть изображение
    
    def preprocess_image_train (изображение, метка):
      изображение = random_jitter (изображение)
      изображение = нормализовать (изображение)
      вернуть изображение
    
    def preprocess_image_test (изображение, метка):
      изображение = нормализовать (изображение)
      вернуть изображение
    
    поезд_Х = поезд_Х.карта(
        preprocess_image_train, num_parallel_calls=AUTOTUNE).cache().shuffle(
        BUFFER_SIZE).пакет(1)
    
    поезд_Y = поезд_Y.карта(
        preprocess_image_train, num_parallel_calls=AUTOTUNE).cache().shuffle(
        BUFFER_SIZE).пакет(1)
    
    test_X = test_X.map(
        preprocess_image_test, num_parallel_calls=AUTOTUNE).cache().shuffle(
        BUFFER_SIZE).пакет(1)
    
    test_Y = test_zebras.map(
        preprocess_image_test, num_parallel_calls=AUTOTUNE).cache().shuffle(
        РАЗМЕР БУФЕРА).партия(1)  

По сути, приведенный выше код определяет набор функций для управления изображениями по мере их прохождения по конвейеру (добавление данных). Мы также группируем набор данных и перемешиваем изображения после каждой полной итерации набора данных.
На протяжении всей статьи мы говорили об использовании состязательных и циклических последовательных потерь для обучения наших моделей. Теперь мы увидим, как реализовать этот алгоритм обучения в коде.

 
@tf.function
def train_step (real_x, real_y):
  # для постоянного значения установлено значение True, поскольку лента используется более
  # один раз для расчета градиентов.с tf.GradientTape(persistent=True) в качестве ленты:
    # Генератор G переводит X -> Y
    # Генератор F переводит Y -> X.
    
    fake_y = генератор_g (реальный_x, обучение = Истина)
    Cycled_x = генератор_f (fake_y, обучение = True)

    fake_x = генератор_f (реальный_у, обучение = Истина)
    Cycled_y = генератор_г (fake_x, обучение = Истина)

    # same_x и same_y используются для потери идентичности.
    тот же_x = генератор_f (реальный_x, обучение = Истина)
    тот же_у = генератор_г (реальный_у, обучение = Истина)

    disk_real_x = diversator_x (real_x, обучение = True)
    disk_real_y = diversator_y (real_y, обучение = True)

    disk_fake_x = diversator_x (fake_x, обучение = Истина)
    disk_fake_y = diversator_y (fake_y, training=True)

    disk_x_loss = дискриминатор_потеря (disc_real_x, disk_fake_x)
    disk_y_loss = дискриминатор_потеря (disc_real_y, disk_fake_y)

    # рассчитать убыток
    gen_g_loss = генератор_потеря (disc_fake_y)
    gen_f_loss = генератор_потеря (disc_fake_x)
    
    total_cycle_loss = calc_cycle_loss (реальный_x, зацикленный_x) + calc_cycle_loss (реальный_y, зацикленный_y)
    
    # Общие потери генератора = потери противника + потери цикла
    total_gen_g_loss = gen_g_loss + total_cycle_loss + identity_loss (real_y, тот же_y)
    total_gen_f_loss = gen_f_loss + total_cycle_loss + identity_loss (real_x, тот же_x)

  
  # Рассчитываем градиенты для генератора и дискриминатора
  генератор_g_градиенты = лента.градиент (total_gen_g_loss,
                                        генератор_g.trainable_variables)
  генератор_f_градиентов = лента.градиент (общий_ген_f_потери,
                                        генератор_f.trainable_variables)
  
  дискриминатор_x_градиенты = лента.градиент(disc_x_loss,
                                            дискриминатор_x.trainable_variables)
  дискриминатор_у_градиентов = лента.градиент(диск_у_потеря,
                                            дискриминатор_y.trainable_variables)
  
  # Применяем градиенты к оптимизатору
  генератор_g_оптимизатор.apply_gradients (zip (generator_g_gradients,
                                            генератор_g.trainable_variables))

  генератор_f_optimizer.apply_gradients (zip (generator_f_gradients,
                                            генератор_f.trainable_variables))
  
  strictor_x_optimizer.apply_gradients (zip (distributor_x_gradients,
                                                дискриминатор_x.trainable_variables))
  
  strictor_y_optimizer.apply_gradients (zip (distributor_y_gradients,
                                                дискриминатор_у.обучаемые_переменные))  

Декоратор tf.function в верхней части функции train компилирует всю функцию train_step в граф TensorFlow для повышения производительности на оборудовании, таком как TPU и GPU. Функция шага обучения может быть сложной, но она следует шагам, которые мы описали ранее при обучении GAN. Сначала мы используем генераторы для создания поддельных изображений и циклических изображений. Поддельные изображения используются для обучения как генератора, так и дискриминатора, а изображения циклов используются в согласованных потерях цикла, чтобы обеспечить согласованность цикла, как мы описали ранее.При обучении дискриминатора мы сначала вводим реальные изображения в дискриминаторы, чтобы получить выходные данные дискриминатора для реальных изображений. Мы следуем примеру поддельных изображений, созданных генератором, чтобы получить вывод дискриминатора для поддельных изображений. Затем мы передаем эти выходные данные в функцию потерь дискриминатора, а затем обучаем каждый дискриминатор, используя полученные потери каждого дискриминатора. Теперь переходим к обучению генераторов. Мы передаем решение дискриминаторов о поддельных изображениях в функцию generate_loss, которая описывает, насколько хорошо генераторы обманывают дискриминаторы, заставляя их думать, что изображения, которые они производят, являются реальными изображениями.Мы объединяем эту потерю с последовательной потерей цикла и потерей идентичности, которые отвечают за дальнейшее ограничение возможных отображений, получение градиентов и оптимизацию весов генераторов. Функция шага обучения выполняет все эти действия с пакетом изображений, поэтому нам нужно определить цикл обучения для итеративного выполнения шага обучения для всех пакетов набора данных для некоторых эпох. Тренировочный цикл состоит из трех этапов.

  • Сначала мы итерируем через некоторое количество эпох (целочисленное значение)
  • А затем в каждую эпоху мы итерируем все наборы данных, состоящие из пакетов изображений (train_X и train_Y).
  • Затем для каждой партии изображений мы просто вызываем функцию train_step для обучения дискриминаторов и генераторов для каждой партии набора данных.

Цикл обучения также содержит некоторые операторы if для регистрации статистики нашего обучения на экране.

 
для эпохи в диапазоне (EPOCHS):
  начало = время.время()

  п = 0
  для image_x, image_y в tf.data.Dataset.zip((train_horses, train_zebras)):
    train_step (image_x, image_y)
    если n % 10 == 0:
      Распечатать ('.', конец='')
    п+=1

  clear_output (ожидание = Истина)
  # Использование согласованного изображения (sample_horse), чтобы прогресс модели
  # хорошо видно.
  generate_images (generator_g, sample_horse)

  если (эпоха + 1) % 5 == 0:
    ckpt_save_path = ckpt_manager.save()
    print('Сохранение контрольной точки для эпохи {} в {}'.format(epoch+1,
                                                         ckpt_save_path))

  print('Время, затраченное на эпоху {}, равно {} сек\n'.format(epoch + 1,
                                                      время.время()-начало))  

Функция generate_images отображает изображения, сгенерированные генератором. Это нужно для того, чтобы отслеживать, насколько хорошо работает наша модель. Его реализация показана ниже.

 
def generate_images (модель, test_input):
  прогноз = модель (test_input)
    
  plt.figure(figsize=(12, 12))

  display_list = [test_input[0], предсказание[0]]
  title = ['Входное изображение', 'Предсказанное изображение']

  для я в диапазоне (2):
    plt.subplot(1, 2, я+1)
    plt.title(название[i])
    # получение значений пикселей между [0, 1] для построения.plt.imshow (display_list[i] * 0,5 + 0,5)
    плт.ось('выкл')
  plt.show()  

Обучение занимает некоторое время, поэтому я предлагаю вам провести обучение на градиентных ноутбуках Paperspace со средой с поддержкой графического процессора, чтобы ускорить процесс обучения: Paperspace.com. После обучения моделей в течение длительного времени генераторы должны быть в состоянии создавать довольно реалистичные переведенные изображения, такие как:

источник: TensorFlow.org


Следующие шаги пакет набора данных TensorFlow.Я умоляю читателей попробовать разные наборы данных и опубликовать свои результаты в твиттере. Вы можете отметить меня @henryansah083
  • Мы реализовали генераторы, используя модели unet. Вам также следует поэкспериментировать с другими архитектурами, такими как архитектура генератора остаточной сети, предложенная в документе.
  • Обо мне

    Я учусь на бакалавриате, изучаю электротехнику и электронику. Я также являюсь энтузиастом глубокого обучения и писателем. Моя работа в основном сосредоточена на компьютерном зрении и обработке естественного языка.Я надеюсь, что когда-нибудь прорвусь в области автономных транспортных средств. /в/Генри-ансах-6a8b84167/.

    Мода как перевод культуры

    В книге рассказывается о том, как знаки моды демонстрируют истории, гибриды, формы чувств, от классики моды в кино до моды как культурной традиции в глобальном мире и цифровых медиа. Основанная на сильном социо-семиотическом методе (Барт, , «Язык моды» — основной справочник), книга пересекает некоторые из основных аспектов современной культуры одетого тела: от времени и пространства до гендера и моды. как культурный перевод, к нарративам, включенным в конвергенцию средств массовой информации нашего века.По мнению Юрия Лотмана, мода привносит динамическое начало в, казалось бы, инертные сферы повседневности. Неожиданная функция моды по опрокидыванию общепризнанного смысла передается через ее сочетание в динамическом хранилище того, что Лотман называет «сферой непредсказуемого». В этом горизонте понятие моды как мирской системы смыслов (Беньямин) порождает через свои знаки различные «миры».

    Основанная на концепции Вальтера Беньямина о времени и истории, книга сначала фокусируется на времени как на основной категории моды.Пространство — еще одна основная категория, рассматриваемая в этой книге в связи с модой. Далее книга фокусируется на теле, чтобы показать, что мода — это система образов, передающаяся через стереотипные знаки, культурные модели и архетипы воображения, которые производят и определяют сексуальную идентичность в обществе. . Наконец, книга посвящена моде как средству коммуникации в эпоху социальных сетей.

    «Мода всегда была индикатором времени, в которое она была создана. В «Мода как культурный перевод» Калефато показывает нам, что мода черпает информацию из прошлого и направляется в будущее, часто нелинейным образом.Калефато показывает нам сложность роли, которую мода играет в обществе, и интерпретации одежды, основанные на таких элементах, как время, местоположение, культура, технологии, общение и глобальная социоэкономика. Благодаря ее исследованиям мы видим моду как «живую, дышащую» среду, которая развивается и мутирует во времени, пространстве и стиле; демонстрируя культурную значимость, выходящую за рамки определяющих ее тем». — Тодд Линн, доцент кафедры моды Кингстонской школы искусств, Великобритания

    «Мода как трансляция культуры» , безусловно, интересная и философская работа.Первоначальный вклад заключается в том, как автор включает внешние по отношению к телу влияния, такие как места и время, а также индивидуальные знаки и символы одежды и модификации тела. — Сара Маркетти, директор Центра передового опыта в обучении и преподавании, Государственный университет Лоуа, США

    Патриция Калефато — профессор Университета дельи-студи-ди-Бари «Альдо Моро», Италия, где она преподает социологию культуры и коммуникации.

    Anthem Исследования в области моды, одежды и визуальных культур

    Введение: Мода как культурное воплощение в гиперсвязанном мире; Дополнение к введению: Мода, гиперсвязанный мир и коронавирус; 1.Время; 2. Пробелы; 3. Мода как культурная традиция: итальянский стиль; 4. Мода как трансляция культуры; 5. Одетые тела; 6. Тело как текст; 7. Люди и не только; 8. Мода и «вторая натура»; 9. Мода, коммуникации и конвергентные медиа; 10. Нарративы моды в визуальной культуре; Выводы: Мода как представление о будущем; Использованная литература; Показатель.

    Нет ссылок для этого заголовка.

    Нет подкастов для этого названия.

    Что нужно знать о форматировании перевода

    Сведения о форматировании вашего проекта перевода — как в файле, который вы предоставляете, так и в файле, который вы запрашиваете — помогут определить, сколько времени, работы и затрат потребуется.

    Знай, что тебе нужно

    Если вам просто нужен переведенный текст, и не имеет значения, является ли переведенный файл точным визуальным соответствием исходному файлу, обязательно отметьте это. Таким образом, процесс, вероятно, будет быстрее и дешевле, но этого не всегда достаточно. Иногда переведенные файлы должны функционировать как юридический документ или запись, и они должны выглядеть так же, как оригинал, только на другом языке. Если у вас похожая ситуация, обязательно запросите зеркальное изображение исходного файла, чтобы ваш документ был принят везде, где вам нужно его использовать.

    Различные языки занимают больше места

    Исходный файл на английском языке может состоять из 10 страниц текста. Однако при переводе на испанский это, скорее всего, будет больше похоже на 12.5. В испанском языке больше слов, чем в английском, поэтому испанский перевод займет больше места. [Как правило, в испанских, португальских и французских переводах количество слов примерно на четверть или пятую больше, чем в английском. Для каждой языковой комбинации она разная.]

    Если по какой-то причине вам нужно, чтобы в переведенном файле осталось то же количество страниц, что и в оригинале, текст должен быть меньше, чтобы вместить более длинный язык.(В большинстве случаев в переводе просто больше страниц, чем в оригинале, но это нормально.) Иногда смещение пространства означает, что изображения могут не очень хорошо совпадать с абзацем, к которому они относятся. Команда переводчиков может сделать это более логичным и целостным, если они знают, чего вы хотите.

    Изображения/графика требуют отдельного редактирования

    Если ваш исходный файл в любом формате содержит какие-либо изображения или графику, которые нельзя редактировать в этом формате, для полного перевода файла требуется дополнительное специализированное редактирование.Инженеры Desktop Publishing (DTP) будут работать над этими изображениями отдельно, чтобы заменить текущий текст желаемым переводом. Они смогут сделать изображения максимально похожими, принимая во внимание качество изображения для начала, а также то, больше или меньше слов в переводе, чем в оригинале. Если ваш индивидуальный переводчик также не может выполнять DTP (некоторые могут), этот шаг выполняется отдельно от переводчика и всегда требует больше времени и денег. Если есть возможность отправлять изображения в редактируемом формате, это упрощает процесс для всех участников.

    Различные форматы файлов могут быть сложными

    Иногда исходный файл предоставляется в формате .pdf, но запрашивается для доставки в виде файла .doc. Многие файлы .pdf можно сохранить как файлы .doc и работать с ними в этом формате. Однако иногда при таком преобразовании форматирование смещается — иногда совсем немного, а иногда и сильно. Когда исходное форматирование не конвертируется плавно, редакторам может потребоваться много времени, чтобы изменить все и сделать переведенный файл таким же, как исходный.Если когда-нибудь появится возможность отправить исходный файл в виде файла .doc, что означает, что его можно редактировать как есть, это упростит и ускорит работу для команды переводчиков, а также снизит затраты для вас.

    быстрый перевод гистопатологических изображений в иммунофлуоресцентные с использованием условных генеративных состязательных сетей

    Proc SPIE Int Soc Opt Eng. Авторская рукопись; доступно в PMC 2018 1 октября.2018 февраль; 10581: 1058105.

    Опубликовано онлайн 2018 MAR 6. DOI: 10.1117 / 12.2293249 9000/12.2293249

    PMCID: PMC6166432

    NIHMSID: NIHMS988277

    Университет здравоохранения и науки Орегон, Портленд, или США

    Соответствующий автор. Прочие статьи в PMC цитировать опубликованную статью.

    Abstract

    Мультиплексная визуализация, такая как многоцветное иммунофлуоресцентное окрашивание, мультиплексная иммуногистохимия (mIHC) или циклическая иммунофлуоресценция (cycIF), позволяет проводить глубокую оценку клеточной сложности in situ и в сочетании со стандартными гистологическими окрашиваниями, такими как гематоксилин и эозин (H&E), может помогают разгадать сложные молекулярные отношения и пространственные взаимозависимости, лежащие в основе болезненных состояний.Однако эти мультиплексные методы визуализации являются дорогостоящими и могут ухудшать как качество ткани, так и ее антигенность с каждым последующим циклом окрашивания. Кроме того, требуется интенсивная вычислительная обработка изображений, такая как совмещение изображений по нескольким каналам. Мы разработали новый метод быстрой гистопатологической-иммунофлуоресцентной трансляции (SHIFT) целых изображений слайдов (WSI) с использованием условных генеративных состязательных сетей (cGAN). Этот подход основан на предположении, что специфические паттерны, зафиксированные на IF-изображениях такими красителями, как DAPI, панцитокератин (panCK) или α -актин гладких мышц ( α -SMA), кодируются на изображениях H&E, так что Модель SHIFT может изучать полезные представления функций или архитектурные паттерны в окрашивании H&E, которые помогают создавать соответствующие паттерны окрашивания IF.Мы демонстрируем, что предлагаемый метод способен генерировать реалистичные маркеры онкомаркеров IF WSI, обусловленные соответствующими окрашенными H&E WSI, с точностью до 94,5% за считанные секунды. Таким образом, этот метод может не только улучшить наше понимание картирования гистологических и морфологических профилей в профили экспрессии белков, но также значительно повысить эффективность диагностических и прогностических решений.

    Ключевые слова: глубокое обучение, условная генеративно-состязательная сеть, перевод изображений, цифровая патология

    1.ВВЕДЕНИЕ

    Клиническое ведение многих системных заболеваний, включая рак, основано на гистопатологической оценке биопсийной ткани, при которой обрабатываются тонкие срезы биопсии для визуализации морфологии тканей и клеток на наличие признаков заболевания. Хотя H&E остается золотым стандартом окрашивания в таких оценках для многих типов рака, дополнительное окрашивание с помощью иммунофлуоресценции или иммуногистохимии может улучшить интерпретацию патологоанатома, поскольку оно позволяет нацеливать и визуализировать клинически значимые биомолекулы и подтипы клеток.Более того, недавнее развитие мультиплексных методов визуализации, таких как cycIF, 1 mIHC, 2,3 и других мультиплексных методов в гистопатологии 4–6 , значительно расширило палитру, с помощью которой патологоанатомы могут визуализировать отдельные срезы тканей. Это позволяет проводить глубокую оценку in situ сложностей микроокружения опухоли, т.е. путем изучения пространственных взаимодействий и архитектурной организации опухолевых и неопухолевых клеток.

    Однако эти методы мультиплексной визуализации требуют больших затрат времени и ресурсов и связаны с техническими трудностями, связанными с деградацией тканей и антигенов. 7 Если предполагается, что информация, необходимая для точного вывода о распределении содержания специфического белка, уже закодирована в окрашенном H&E WSI, т. е. морфология тканей и клеток, отображаемая на гистопатологических изображениях, является функцией основных молекулярных факторов, 8 тогда должна быть возможность точно определить окрашивание IF или IHC, обусловленное окрашиванием H&E. Здесь мы предлагаем SHIFT, метод, который использует структуру cGAN 9,10 для эффективного преобразования H&E WSI в реалистичные IF WSI (), и демонстрируем переводы модульных тестов panCK, α -SMA и DAPI, двух широко используемых прогностические маркеры и ядерный контраст соответственно.Кроме того, этот каркас можно использовать для проверки того, отражают ли морфологии тканей и клеток специфические паттерны экспрессии белков. Таким образом, это может не только улучшить наше понимание ядерной морфологии рака, архитектуры тканей и пространственных паттернов, соответствующих фенотипам клеток, но также может дать подсказки относительно того, какой маркер необходим в дополнение к H&E для соответствующей цифровой интерпретации.

    SHIFT: структура cGAN, которая генерирует изображения IF из соответствующих изображений H&E.Во время обучения (слева) генератор пытается сгенерировать реалистичное изображение IF, обусловленное изображением H&E, в то время как дискриминатор пытается провести различие между сгенерированными и реальными парами изображений. После обучения генератор SHIFT может эффективно генерировать IF WSI для целей тестирования или последующего анализа (справа). Рисунок адаптирован из Ref. 10 .

    Использование cGAN в анализе медицинских изображений было предложено для многих задач, включая сегментацию или генерацию различных областей интереса, 11,12 обнаружение поражений головного мозга, 13 и устранение шума на КТ-изображениях, 14 но, насколько нам известно, SHIFT является первым методом, предложенным для создания IF WSI путем трансляции окрашенных H&E WSI.При совместном развертывании множество должным образом обученных моделей SHIFT могут обеспечить машинную диагностику всего через несколько секунд после установки и сканирования слайда H&E. Таким образом, SHIFT может стать возможным предварительным, вспомогательным или заменой мультиплексных методов высокоразмерной визуализации, тем самым ускоряя рабочие процессы в гистопатологии, где время так часто имеет решающее значение.

    2. МЕТОДЫ

    2.1. Преобразование изображения в изображение

    Фундаментальной проблемой в области обработки изображений является преобразование пикселей из одного представления сцены в пиксели другого представления той же сцены, т.е.е. перевод изображения в изображение. Чтобы подойти к проблеме перевода окрашенных H & E WSI в их аналоги IF, мы применили алгоритм, управляемый cGAN пикселей 2 пикселей , 10 , который выигрывает от его двудольной формулировки. Как и другие методы, предложенные для преобразования изображения в изображение, cGAN изучают функциональное отображение входного изображения x в преобразованное изображение y , то есть G : x y , но уникально для cGAN Таким образом, задачей генератора G является создание изображения y , обусловленного разрешением x , которое обманывает состязательный дискриминатор D , который, в свою очередь, обучен различать наземные истинные и сгенерированные изображения ( , осталось).Результатом этой дуэли двух сетей является модель G , которая генерирует реалистичные изображения, которые трудно отличить от реальных данных (справа), причем некоторые изображения, сгенерированные GAN, достаточно реалистичны, чтобы их можно было рассматривать как прокси для наземная истина, когда помеченные данные скудны или непомерно дороги. 15

    Цель cGAN алгоритма пикселей 2 пикселей представлена ​​как двоичная кросс-энтропийная потеря:

    CGan ( г , г ) = 𝔼 x , y ~ p d A T A 1 ( x , y ) [log d ( x , y )] + 𝔼 x ~ p ~ D A T A 1 ( x ) [log (1 −  D ( x G ( x )))]

    (1)

    где G стремится свести к минимуму цель и, таким образом, свести к минимуму различимость сгенерированных и наземных изображений, а D стремится к противоположному.В дополнение к задаче обмана D , G также рекомендуется генерировать изображения, которые соответствуют действительности, путем включения члена потери реконструкции L1:

    L1 ( г ) = 𝔼 x , y ~ p ~ d a t a 1 ( x , y ) y G ( x )‖ 1 ]

    (2)

    Конечная цель pix2pix

    G*=argminGmaxDLcGAN(G,D)+λLL1(G)

    (3)

    где параметр регуляризации λ = 100 выбран в [].10 для решения задач генерации фасадов, семантической маркировки и раскрашивания сцен. Хотя алгоритм пикселей 2 пикселей может умело переводить семантические метки в оживленный городской пейзаж, его стратегия регуляризации может быть менее подходящей для проблемы перевода разреженных и неоднозначных сигналов, например. пятна IF с низкой распространенностью в наборе обучающих данных.

    2.2. Адаптивная регуляризация на основе распространенности

    Раковые клетки обычно остаются сгруппированными вместе, как показано на (panCK), и поэтому сложно сбалансировать показатель потери реконструкции (2) для положительных/отрицательных случаев в соответствии с распространенностью пятен для каждого обучающего изображения.Например, для малораспространенных (разреженных) областей, окрашенных panCK, в наземных истинных WSI G с большей вероятностью будет генерировать «неокрашенный» паттерн, а не генерировать редко локализованный паттерн окрашивания, потому что потери при реконструкции относительно малы по сравнению с потеря реконструкции для областей с высокой распространенностью (плотных) окрашенных panCK. Чтобы сбалансировать чувствительность и специфичность в этом контексте, мы предполагаем, что генеративная модель может быть восприимчиво настроена для кодирования разреженного окрашивания, подвергаясь максимальному наказанию, когда она делает ложные классификации на плитках основной истины с низкой распространенностью во время обучения.Таким образом, мы предлагаем параметр адаптивной регуляризации на основе распространенности λ’, который может быть более подходящим для перевода сигналов из H&E в IF:

    λ′=λ(ϵ+1n∑i=1nIΩ(pi))−1

    (4)

    где = 0,1 выбирается для смещения в случаях, когда распространенность пятен равна нулю, n — это общее количество пикселей в тайле истинной IF, а IΩ(pi)={1,ifpiinΩ0, в противном случае, где Ω представляет маска истинности земли, а pi представляет собой i -й пиксель.Наша конечная цель

    G*=argminGmaxDLcGAN(G,D)+λ′LL1(G)

    (5)

    Использование параметра адаптивной регуляризации λ’ максимизирует штраф за ошибки генератора на наземных тайлах истинности с низкой распространенностью и минимизирует штраф за ошибки на наземных тайлах с высокой распространенностью. Делая это, мы можем улучшить характеристики локализации и помочь свести к минимуму ложные ошибки классификации на расстоянии от истинно положительных пикселей, как показано на рис.

    Результаты модели SHIFT для сайта 1 (12 656 × 10 858 пикселей при 20-кратном увеличении).Каждое изображение SHIFT представляет собой результат для модели с оптимальным λ*, которая дала наилучшую производительность (). Обведенные темные области на изображении H&E представляют собой кластеры инвазивных лимфоцитов, которые модель SHIFT с фиксированным λ (уравнение (3)) ошибочно классифицировала как panCK-положительные (см. соответствующие обведенные области на среднем правом изображении). Модель SHIFT с адаптивным λ’ (уравнение (5)) не допустила этих ошибок.

    2.3. Ансамбльный подход

    В контексте машинного обучения объединение нескольких обученных моделей может повысить точность прогнозирования, особенно когда объединенные модели фиксируют различные характеристики их общих входных данных.Таким образом, мы также объединили выходные данные моделей, прошедших независимое обучение, т. е. моделей, использующих (3) и (5), для формирования ансамблевого распределения в предположении, что стратегии обучения, предложенные в (3) и (5), дополняют друг друга. Делая это, мы можем сгладить конечный результат и повысить производительность за счет уменьшения существенных несоответствий между моделями.

    3. ЭКСПЕРИМЕНТЫ: НАБОР ДАННЫХ, СЕТИ И ОЦЕНКА

    В этом исследовании используется набор данных 16 , содержащий WSI онкогенной ткани поджелудочной железы, полученные при 20-кратном увеличении из двух соседних тонких срезов: один окрашен H&E, а другой совместно окрашен с флуоресцентным ядерным маркером DAPI и флуоресцентными антителами против panCK и α -SMA, двух маркеров, обычно используемых при оценке опухолей. 17,18 Парные 20-кратные изображения были зарегистрированы 16 и обрезаны по четырем участкам, причем размер каждого изображения участка составлял ~ 12 000 × 8 000 пикселей. 10-кратные WSI были созданы путем половинного масштабирования 20-кратных WSI. Обучающие данные были созданы путем первоначального взятия ~10 000 случайных пар фрагментов H&E и IF размером 256×256 пикселей с трех сайтов, а затем применения манипуляций с одной операцией, т.е. дрожание, вращение, переворот, пуассоновский шум — для каждой плитки, что дает около 20 000 изображений в расширенных обучающих данных.Для заданного пятна мы обучили четыре модели SHIFT, исключающих один сайт, и сгенерировали логически окрашенные WSI для каждого сайта, т.е. каждая из четырех моделей была обучена на случайных плитках из трех сайтов и проверена на неперекрывающихся плитках левого -out, который затем можно было бы объединить в связные WSI. Таким образом, мы смогли выполнить четырехкратную перекрестную проверку метода SHIFT для каждого пятна в контексте каждого пациента. Чтобы уменьшить вредные эффекты мозаичных артефактов в сгенерированных panCK WSI, мы использовали три дополнительных тестовых набора данных неперекрывающихся плиток с каждого сайта — по одному из каждого тестового набора данных, установленного на 128 пикселей либо в x , либо в y или оба — и оценили производительность модели, используя совместно масштабируемую смесь четырех сгенерированных WSI.

    Сетевые архитектуры и реализации для D и G для всех моделей описаны в оригинальном документе pix2pix , 10 , если не указано иное. Размер обучающей партии был установлен равным 4 для всех экспериментов, и для справедливого сравнения мы настроили настройку регуляризации для каждой модели путем обучения в диапазоне λ: 50–5000 и выбрали модели с оптимальным λ *, которые дали наилучшую производительность. Модели обучались в течение 20 эпох с фиксированной скоростью обучения, равной 0.0002, за которым последовали 10 эпох, в течение которых скорость обучения линейно уменьшалась до нуля. После обучения каждая модель SHIFT могла вычислять перевод на уровне WSI менее чем за одну минуту.

    Для оценки производительности модели SHIFT мы измерили коэффициент корреляции Мэтьюза (MCC), 19 коэффициент подобия Дайса (DSC), а также другие стандартные метрики эффективности классификации для сравнения истинности и сгенерированных масок IF. с использованием глобального порога яркости 10% для 8-битной достоверности с поправкой на контраст и сгенерированных IF WSI.Мы также измерили пиковое отношение сигнал-шум (PSNR) и индекс структурного сходства (SSIM) 20 между необработанными наземными данными и необработанными сгенерированными IF WSI.

    4. РЕЗУЛЬТАТЫ И ОБСУЖДЕНИЕ

    Репрезентативные результаты для трансляций из H&E-to-DAPI (SHIFT2DAPI), H&E-to-panCK (SHIFT2panCK) и H&E-to- α -SMA (SHIFT2 α -SMA ) показаны в . Мы выполнили эксперименты SHIFT2DAPI как с 10-кратным, так и с 20-кратным увеличением, чтобы оценить, чувствителен ли вывод модели SHIFT к разрешению изображения, и обнаружили незначительные улучшения в большинстве показателей, когда модели обучались на тайлах с 20-кратным увеличением (вверху), предполагая, что локализованные особенности пятно DAPI может быть более важным для вывода SHIFT2DAPI, чем архитектурные особенности более высокого уровня.Поскольку гематоксилин и DAPI являются надежными красителями для ядер клеток, задача модели SHIFT2DAPI теоретически тривиальна — перевести интенсивность гематоксилина в интенсивность DAPI — и, таким образом, дает представление о верхних пределах производительности SHIFT. Обратите внимание, что существуют структурные различия в микрометровом масштабе между наземными правдами H&E и IF WSI из-за серийного получения тканей. Тем не менее, результаты для моделей, использующих (5), согласуются с результатами сравнения маски DAPI и маски сегментации клеточного ядра, полученной из изображения H&E (данные не показаны), что указывает на то, что SHIFT2DAPI обеспечивает хорошую производительность вплоть до фундаментального предела.

    Таблица 1.

    Параметры и характеристики модели SHIFT. Результат для модели с оптимальным λ*, которая дала наилучшие характеристики (MCC для DAPI и panCK, SSIM для α -SMA), показан для каждой комбинации увеличения и G* . Модели обучались до тех пор, пока ошибки не стабилизировались.

    7 0.861 0.861 7 0.900 7 0.944 0.944 0.966 90 747 + 90 713
    Модель
    перевод
    Маг. Сайт создан G * λ* MCC DSC Accu. Спец. Прец. Sens. PSNR ДНЮС
    SHIFT2DAPI 10X 1 уравнение (3) 5000 0,838 0,885 0,932 0,938 0,857 0,916 30.89 7 30.89 0.883
    EQ (5) 1000 1000 0.845 0.890 0.936 0.936 0.951 0,881 0,898 31,40 0,887
    20X 1 уравнение (3) 500 0,857 0,897 0,942 0,965 0,910 0,886 31.53 0.883
    EQ (5) 5000 5000 0,913 0,887 31,50 0,898
    SHIFT2panCK 10X 1 уравнение (3) 1000 0,704 0,749 0,909 0,918 0.662 0.863 22.99 0,769
    EQ (5) 1000 0.754 2 0.793 2 0.933 0.953 0,766 0,822 22,95 0,791
    Ансамбль 0,729 0,769 0,917 0,922 0,679 0,887 23.19 23.19 0.782
    2 EQ (3) 1000 0.817 0.855 0.855 0.937 0.946 0,812 0,903 28,21 0,819
    уравнение (5) 1000 0,814 0,853 0,939 0,959 0,845 0,861 27.89 0.816
    3 0.821 0.821 7 0.859 0.938 0.948 0.948 0.819 0.903 28,66 0,828
    3 уравнение (3) 1000 0,790 0,822 0,945 0,965 0,810 0,834 26,36 0.815
    EQ (5) 1000 0.777 0,807 0.945 2 0.978 7 0.860 0.760 26,16 0,818
    Ансамбль 0,790 0,822 0,944 0,958 0,786 0,862 26,69 0,828
    4 EQ (3) 1000 0.812 0.849 0.940 0,967 0.967 0.865 0.833 26.05 0,807
    уравнение (5) 1 000 0,792 0,826 0,936 0,981 0,908 0,758 25,87 0,810
    Ансамбль 0.819 7 0.854 7 7 0.943 0.972 0.972 0.881 0.828 26.35 26.35 0.818
    SHIFT2a-SMA 10x 1 уравнение (3) 1000 24,70 0,603
    уравнение (5) +1000 24,84 0,608
    ансамбль 25.09 0,611 +
    2 уравнение (3) 1000 25,69 0,634
    уравнение (5) 1000 25,81 0,642
    ансамбль 26.02 0,643
    3 уравнение (3) 1000 24,19 0,588
    уравнение (5) 1000 24,41 0,598
    ансамбль 24.74 0,606 90 018
    4 уравнение (3) 1000 25,21 0,634
    уравнение (5) 1000 26,34 0,675
    ансамбль 26.39 0,674

    Учитывая, что panCK будет окрашивать только подмножество клеток, которые являются CK-позитивными, а не окрашивает вездесущий цитологический ориентир, как это делают гематоксилин и DAPI, перевод с H&E на panCK является более сложным. интересная, но сложная задача. Хотя модели SHIFT2panCK показали себя хуже, чем SHIFT2DAPI в большинстве категорий, визуально отличить сгенерированные ИИС panCK IF от наземных сложно, как показано на рис.За одним исключением (чувствительность SHIFT2panCK для участка 4), либо модели, использующие предложенный метод (5) отдельно, либо ансамблевый подход работали так же или лучше, чем модели, использующие только (3), т.е. пикселей 2 пикселей . Примечательно, что модели, использующие предложенный метод (5), показали лучшие характеристики локализации (обведены неправильно классифицированные области для модели, использующей (3)).

    В отличие от окраски DAPI и panCK, картина окраски α -SMA извилистая и высокочастотная (, внизу).Когда эти атрибуты усугубляются пространственной деформацией и другими осложнениями, связанными с серийным получением H&E и IF WSI, оценка на уровне пикселей сгенерированных α -SMA WSI становится чрезвычайно сложной задачей. По этой причине мы исключили показатели оценки, которые зависели от генерации маски α -SMA, в пользу показателей, отражающих глобальные конфигурации α -SMA IF WSI (внизу). Хотя ансамблевый подход показал лучшие результаты в обеих категориях для большинства участков, все модели, использующие только предложенный метод (5), превзошли модели, использующие только (3).

    5. ЗАКЛЮЧЕНИЕ

    Результаты, представленные в этом экспериментальном исследовании, демонстрируют, что предложенный метод SHIFT позволяет быстро и точно определить распределение клинически значимых маркеров на гистопатологических изображениях. Дальнейшая работа будет сосредоточена на стратегиях обучения многомасштабным изображениям, настройке гиперпараметров, переводе на другие пятна IF и оценке модели между пациентами.

    Эта работа охватывает лишь небольшую часть возможных применений GAN в цифровой патологии.Поскольку наши предварительные результаты показывают, что архитектуры глубокого обучения позволяют коррелировать признаки на гистопатологических и IF-изображениях, мы считаем, что SHIFT может быть в целом способен идентифицировать перекрестные сопоставления между различными модальностями визуализации с общими пространственными признаками, даже когда выходные распределения разрежены. .

    ПРИЗНАТЕЛЬНОСТЬ

    Эта работа была поддержана SU2C Американской ассоциацией исследований рака (AACR) (SU2C-AACR-DT12–14).

    ССЫЛКИ

    [1] Lin J-R, Fallahi-Sichani M, and Sorger PK, «Мультиплексная визуализация одиночных клеток с использованием высокопроизводительного метода циклической иммунофлуоресценции». Связь с природой 6, 8390 (2015).[Бесплатная статья PMC] [PubMed] [Google Scholar][2] Gerdes MJ, Sevinsky CJ, Sood A, Adak S, Bello MO, Bordwell A, Can A, Corwin A, Dinn S, Filkins RJ и др., « Высокомультиплексный анализ одиночных клеток фиксированной формалином и залитой в пара-n раковой ткани». Труды Национальной академии наук 110(29), 11982–11987 (2013). [Бесплатная статья PMC] [PubMed] [Google Scholar][3] Цудзикава Т., Кумар С., Боркар Р.Н., Азими В., Тибо Г., Чанг Ю.Х., Балтер А., Кавасима Р., Чоу Г., Зауэр Д. и др., « Количественная мультиплексная иммуногистохимия выявляет миелоидно-воспаленные опухоле-иммунные комплексы, связанные с плохим прогнозом». Отчеты о ячейках 19(1), 203–217 (2017).[Бесплатная статья PMC] [PubMed] [Google Scholar][4] Зражевский П., True LD и Gao X, «Многоцветное многоцикловое молекулярное профилирование (m3p) с квантовыми точками для анализа отдельных клеток». Природные протоколы 8(10), 1852 (2013). [Бесплатная статья PMC] [PubMed] [Google Scholar][5] Анджело М., Бендалл С.К., Финк Р., Хейл М.Б., Хитцман С., Боровски А.Д., Левенсон Р.М., Лоу Дж.Б., Лю С.Д., Чжао С. и др., « Мультиплексная ионно-лучевая визуализация опухолей молочной железы человека». Природная медицина 20(4), 436–442 (2014). [Бесплатная статья PMC] [PubMed] [Google Scholar][6] Giesen C, Wang HA, Schapiro D, Zivanovic N, Jacobs A, Hattendorf B, Schü er PJ, Grolimund D, Buhmann JM, Brandt S, et al., «Высоко мультиплексная визуализация опухолевых тканей с субклеточным разрешением с помощью масс-цитометрии», Природные методы 11(4), 417–422 (2014). [PubMed] [Google Scholar][7] О’Херли Г., Шёстедт Э., Рахман А., Ли Б., Кампф С., Понтен Ф., Галлахер В.М. и Линдског С., «Мусор на входе, мусор на выходе: критическая оценка используемых стратегий. для проверки иммуногистохимических биомаркеров», Молекулярная онкология 8(4), 783–798 (2014). [Бесплатная статья PMC] [PubMed] [Google Scholar][8] Фукс Т.Дж. и Бухманн Дж.М., «Вычислительная патология: проблемы и перспективы анализа тканей». Компьютеризированная медицинская визуализация и графика 35(7), 515–530 (2011).[PubMed] [Google Scholar][9] Гудфеллоу И., Пуже-Абади Дж., Мирза М., Сюй Б., Уорд-Фарли Д., Озаир С., Курвиль А. и Бенжио И., «Генеративные состязательные сети», в [Достижения в нейронной Системы обработки информации. 2014. С. 2672–2680. [Google Scholar][10] Исола П., Чжу Дж. Ю., Чжоу Т. и Эфрос А. А., «Преобразование изображения в изображение с помощью условных состязательных сетей», в [Конференция IEEE по компьютерному зрению и распознаванию образов (CVPR)], ( июль 2017 г.). [Google Scholar][11] Удреа А. и Митра Г.Д., «Генеративные состязательные нейронные сети для обнаружения пигментированных и непигментированных поражений кожи на клинических изображениях», в [Системы управления и информатика (CSCS), 21-я международная конференция, 2017 г.], 364–368, IEEE (2017).[Google Scholar][12] Коста П., Галдран А., Мейер М.И., Мендонса А.М. и Кампилью А., «Состязательный синтез изображений сетчатки из сосудистых деревьев», в [Анализ и распознавание изображений. ICIAR 2017. Конспект лекций по информатике], Karray F, Campilho A, and Cheriet F, eds., 10317, Springer, Cham. [Google Scholar][13] Алекс В., Сафван КПМ, Ченнамсетти С.С. и Кришнамурти Г., «Генеративные состязательные сети для обнаружения повреждений головного мозга», Proc. ШПАЙ 10133, 101330Г–101330Г–9 (2017). [Google Scholar][14] Вольтеринк Дж. М., Лейнер Т., Вьергевер М. А. и Исгум И., «Генеративные состязательные сети для снижения шума при КТ с низкими дозами». Транзакции IEEE по медицинской визуализации (2017 г.).[PubMed] [Google Scholar][15] Бусмалис К., Зильберман Н., Дохан Д., Эрхан Д. и Кришнан Д., «Неконтролируемая адаптация домена на уровне пикселей с генеративными состязательными сетями», в [Конференция IEEE по компьютерному зрению и распознаванию образов (ЦВПР)], (июль 2017 г.). [Google Scholar][16] Chang YH, Thibault G, Madin O, Azimi V, Meyers C, Johnson B, Link J, Margolin A и Gray JW, «Классификация ядер на основе глубокого обучения в гистологических изображениях поджелудочной железы», в [ 39-я ежегодная международная конференция IEEE Engineering in Medicine and Biology Society (EMBC)], 672–675 (2017).[PubMed] [Google Scholar][17] Барак В., Гойке Х., Панаретакис К.В. и Эйнарссон Р., «Клиническая полезность цитокератинов в качестве опухолевых маркеров». Клиническая биохимия 37(7), 529–540 (2004). [PubMed] [Google Scholar][18] Sinn M, Denkert C, Striefler J, Pelzer U, Stieler J, Bahra M, Lohneis P, Dörken B, Oettle H, Riess H, et al., «Экспрессия актина гладких мышц и десмопластическая стромальная реакция при раке поджелудочной железы: результаты исследования CONKO-001». Британский журнал рака 111 (10), 1917–1923 (2014). [Бесплатная статья PMC] [PubMed] [Google Scholar][19] Matthews BW, «Сравнение предсказанной и наблюдаемой вторичной структуры лизоцима фага T4», Biochimica et Biophysica Acta (BBA) – Структура белка 405 (2), 442–451 (1975).[PubMed] [Google Scholar][20] Wang Z, Bovik AC, Sheikh HR и Simoncelli EP, «Оценка качества изображения: от видимости ошибок до структурного сходства». Транзакции IEEE при обработке изображений 13(4), 600–612 (2004). [PubMed] [Google Scholar]

    Изображения, воображение и образ-гештальт

    Аннотация: Целью данного исследования является обсуждение образов, образов-гештальтов, их отношений, а также воображения, вовлеченного в динамическое взаимодействие переводчика с художественным текстом.В эстетической прогрессии переводчик обязан воспринимать образы. Только используя потенциал воображения переводчика, переводчик может определить единую группировку и актуализировать образ-гештальт. И благодаря этому процессу перевода китайская переведенная версия ярко представляет аналогичные художественные образы, контур, тон и чувства оригинального литературного текста.

    Ключевые слова: изображения; образ-гештальт; воображение; актуализация


    1. Введение

    Целью данного исследования является изучение динамического взаимодействия между художественным текстом и воображением переводчика, а также обсуждение того, как актуализировать образ-гештальт, интеграцию образов, которая в значительной степени влияет на эстетическую гармонию в переведенных версиях.В настоящее время переводоведение уделяет большое внимание субъективной роли переводчика и его незаменимой мыслительной обработке. Переводческие исследования сместили свой интерес с переводческого исследования на трансляционное исследование и с предписывающей методологии на описательную методологию (Дженни Уильямс и Эндрю Честерман, 2002). Кроме того, перевод сместился с лексического ранга или ранга предложения на более крупную единицу. Вплоть до начала 1970-х годов лингвистически ориентированный перевод представлял собой просто процесс замены последовательности эквивалентных единиц.Даже в функциональной эквивалентности Ниды (1964) отдельные предложения генерируются без особого внимания к предложениям вокруг них. Тем не менее переводоведение после 1970-х годов сосредоточено на анализе дискурса и понимании текста. Текст воспринимается как целостное целое, а не как атомарные, фрагментарные единицы. Снелл-Хорнби ясно заявил (2001:28), «даже если термин лингвистический гештальт используется только в нескольких отдельных исследованиях, сам холистический принцип становится все более доминирующим в изучении языка за последние несколько лет, а в последнее время теория перевода имеет первостепенное значение.


    2. Актуализация образов и воображение

    Литературное произведение обычно состоит из серии изображений. Переход от изображений к экспонентам целевого языка будет давать более эффективные и эквивалентные переводы, чем замена элемента на элемент. Поэтому для хорошего переводчика необходимо осмысление текста в различных проявленных аспектах через эстетическую актуализацию образов. Во время такого рода перевода воображение фактически вовлечено в актуализацию образа.

    Что касается изображений в переводе, Андре Лефевр (1992) утверждал, что переводчики должны переписывать изображения, созданные писателем. Образы являются ключами к художественному тексту, и под предлогом поиска образов переводчик может дистанцироваться от языковой замкнутости и затем выйти на динамическое соответствие в переводных вариантах. Традиционно утверждалось, что добросовестный переводчик выполняет последовательное упражнение, предполагая, что значение полностью содержится в фонико-семантическом элементе кода.Однако такая механическая замена переведенной версии обычно не выглядит точным воспроизведением исходного текста или приемлемым образцом целевого языка.

    В узком смысле образ — это метафора, символ или фигура речи. Под образом в данном исследовании понимается формулировка несуществующего предмета или персонажа, мысленно созданная из исходного текста в условиях психологического восприятия и воображения автора. Очевидно, воображение переводчика помогает в создании зрительных образов, вычерчиваемых из всего текста или подтекстов.«Смысл литературного произведения остается связанным с тем, что говорится в печатном тексте, но для того, чтобы сложить все воедино, требуется творческое воображение читателя» (Iser, 1978: 102). Образы в художественных текстах просто относятся к мысленным картинам, созданным под влиянием настроения или чувств автора, которые необходимо вызвать и воспроизвести с помощью воображения переводчика. Иногда переводчик бессознательно озабочен передачей визуальных образов, хотя и настаивает на точном расположении слов для выражения отношений, идей и даже настроений.


    3. Образ-гештальт и образы

    Что же касается воображаемых образов, то они могут быть одиночными и отдельными, а могут представлять собой некоторое мысленное восприятие в целом. С этой точки зрения между изображениями и гештальт-образом существуют как корреляция, так и различия.


    3.1 Корреляция между изображением-гештальтом и изображениями

    Образы, воспринимаемые из исходного текста, не атомистичны и фрагментарны, а соотносятся друг с другом в соответствии с общей темой, контуром или настроением исходного текста.Такое сближение образов в единую группу или целое рассматривается как образ-гештальт. Скажем просто, соотношение между образами и образом-гештальтом — это некая связь между частями и целым. Тем не менее, целое больше, чем части. Именно поэтому в воображении переводчика возникают не атомарные и фрагментарные подобразы, а интеграция этих частей или образ-гештальт.


    3.2 Разница между изображением-гештальтом и изображениями

    С одной стороны, образ-гештальт состоит из последовательной и гармоничной интеграции отдельных подобразов; с другой стороны, каждый отдельный подобраз находится в зависимости от мысленно сформулированного целого.Поэтому переводчику будет неловко решать, какой из них отдать приоритет для формирования целевого текста: сформулировать образ-гештальт и основывать части на целом или основывать образ-гештальт на частях. Безусловно, первое, т. е. именно образ-гештальт в первую очередь определяет художественный перевод.

    Образ-гештальт, непротиворечивое единство субобразов как смыслового целого, предполагает репрезентацию не просто предмета, но определенной сцены, определенного персонажа или события в целом в художественном тексте.Кроме того, поразительно, образ-гештальт влияет на части из-за своих гештальт-качеств. Школа гештальт-психологии выдвинула принцип, что «целое больше, чем простая сумма его частей, и анализ частей не может дать понимания целого» (Snell-Hornby, 2001: 28). построения образа-гештальта то, что может быть воспринято из частей, определяется внутренними законами, присущими целому или образу-гештальту. Внутренние законы в основном подчеркиваются для общих качеств, таких как настроение, тон, контур и атмосфера.Именно эти гештальт-качества оказывают большое влияние на роль частей в художественном единстве. Типичным примером этого явления является то, что мы идентифицируем человека по определенному виду, который у него есть, и никакой конкретный признак не может определить, что мы чувствуем в целом. С другой стороны, благодаря объединению всех подобразов, а не их прямой и простой композиции или дополнению, мы чувствуем некую меланхолическую грацию «Грозового перевала» и нежную чувствительность «Джейн Эйр». Интеграция значительно превосходит простое добавление частей и обратно влияет на части.

    Одним словом, то, что переводчику необходимо воспринять и вообразить в процессе перевода, есть образ-гештальт, интегрированный из субобразов, а не фрагментарных образов. Только так переводчик может воссоздать прозрачный текст с таким же эстетическим эффектом. Подумайте о следующем примере, Ex.1.


    Пример 1.

    Джоджиана, у которой был испорченный характер, очень едкая злоба, придирчивая и наглая осанка, повсеместно потакали. Красота ее, румяные щеки и золотые кудри, казалось, доставляли удовольствие всем, кто смотрел на нее, и возмещали всякий проступок. (Charlotte Bronte: Jane Eyre)

    Version one:

    乔治亚娜有被宠坏了的脾气,有非常毒辣的恶意,有吹毛求疵的傲慢态度,却受到 普遍的宽容 她的美,她的微红的面颊和金色的卷发,似乎使所有看她的人都欢喜,而且 切缺陷人家都不计较了。(李霁野

    译)

    Version two:

    乔奇安娜脾气给惯坏了,凶狠毒辣,吹毛求疵,蛮横无礼,大家却都 纵容 她。她的美丽,她的红喷喷的脸蛋和金黄色的卷发,似乎叫所有看着她的人都感到愉快,都能因此而原谅她的 每一个缺点 (祝庆英

    译)

    Evidently, due to the failure in the experience of the gestalt quality involved, version one fails in conveying a consistent emotion of the original text, that is, Jane’s hatred and dissatisfaction when she is unfairly treated.Из подчеркнутых фраз в первой версии можно сделать вывод, что она превращает Джоджиану в сознании Джейн в непослушную девочку, которая нуждается в сочувствии или заботе, ибо ее «вина» внушает людям любовь к ней. Но со второй версии мы можем испытать целостную эмоцию и эквивалентный образ, интеграцию красоты и недостатка Джоджианы. В гармонии с «очень едкой злобой, придирчивой и наглой осанкой» ее «вина» настолько обидчива, что прикрывает ее красоту.


    4. Воображение и актуализация образа-гештальта

    Из приведенного выше рассуждения видно, что восприятие образа для переводчика представляет собой целостный процесс, основанный на его лингвистических и всесторонних знаниях, и воображение фактически участвует в переводческом процессе в дополнение к актуализации образа.Эстетический опыт не возникает из языка без какого-либо восприятия, потому что язык остается тем, чем он является. Тем не менее, он обладает определенной способностью стимулировать воображение. И посредством воображения переводчик может получить доступ к формулировке образа-гештальта, интегрированного из подобразов. В противном случае художественный текст становится абстрактным, пустым и скучным, что может помешать переводчику воспроизвести подобное эстетическое переживание в переводном варианте.

    Воображение настолько волшебно и могущественно, что нечто несуществующее может живо возникнуть в сознании людей в целом.Именно по этой причине «воображение для художественного переводчика является вспомогательной операцией соединения элементов, которые не равнозначно связаны и организованы» (Цзян Цюся, 2002, 218). Как переводчик, он может представить себе огромные горы, спокойные реки и бушующее море. Он может быть счастлив, когда чувствует луну в «Последнем празднике весенней луны, цветущие фонари яркие, как луна. Луна над ивой освещала моего возлюбленного рядом со мной» (Сюй Юаньчун, 1990: 147). Наоборот. , он также может быть грустным, когда чувствует луну в «Как долго будет появляться полная луна? Вино в руке, я прошу небо.(Сюй Юаньчун, 1990: 197) Один и тот же образ содержит разные гештальт-качества, соответствующие разным образам-гештальтам. Поэтому перед процессом перевода переводчик должен снова и снова перечитывать художественные тексты до тех пор, пока в его или ее сознании не возникнет яркого представления о некоторых живого персонажа, сцены или события, как говорит Чжан Цзинь (1994:67): «Переводчик должен со всей душой и способностями наблюдать жизнь, описанную в оригинальном тексте. Он должен видеть, слышать, обонять, осязать и чувствовать образы, сгущенные в исходном тексте.

    В процессе перевода существует динамическое взаимодействие между текстом и субъективным переводчиком. И через воображение переводчик участвует в актуализации образа-гештальта, хотя и ставит своей задачей выбор так называемого «оптимального эквивалента» из многообразия «потенциальных эквивалентов» в языке перевода. Следующие переводы могут проиллюстрировать силу воображения, связанную с актуализацией образа-гештальта.


    Пример 2.

    Деревня Марллот лежала среди северо-восточных изгибов прекрасной Долины Блэкмор или Блэкмон , упомянутой выше, опоясанного и уединенного региона, по большей части еще не хоженого туристами или художниками-пейзажистами, хотя и в пределах четырех часов пути. из Лондона.(Tomas Hardy: Tess of d’ Urbervilles)

    前面说过的那个美丽的 布雷谷 或布莱谷 ,是一处群山环抱,幽深僻静的地方,虽然离伦敦不过四个钟头的路程,但是它的大部分,都还不曾有过游历家和风景画家的足迹。 马勒村 就在它东北部那片起伏的带的中间。

    (张谷若 译)

    Ex.2. transfers the image-Gestalt in logic, more acceptable to the target language readers, despite the fact that its lexical progression is not in compliance with the original. Obviously, when a mental image is visualized, the relation between Blackmore and Marlott is clear. The translator can imagine a whole «scene» in which Marlott is located.Based on this mental picture, he can easily change the syntactic pattern of the original and reproduce the visual image of the spatial Marlott.


    Ex.3.

    The sky, now overcast and sullen, so changed from the early afternoon, and the steady insistent rain could not disturb the soft quietude of the valley; the rain and the rivulet mingled with one another, and the liquid note of the blackbird fell upon the damp air in harmony with them both. (Daphne du Maurier: Rebecca)

    «天空这时黑云密布,阴阴沉沉,和下午三四点种的不大一样,雨又不住地下着,但这却惊扰不了山谷的静谧; 雨声和溪水声 交融在一起,画眉的婉转的曲调在湿润的空气中回荡着,和雨声、溪水声相 应和。»(张今,1994:33,34)

    This translation offers the target text reader an equivalent experience, or the melody of silence perceived from the original.Только благодаря воображению и целостному опыту переводчик может визуализировать картину, слыша все звуки, как бы присутствующие на сцене. В этом случае, помимо своих лингвистических знаний, он может воссоздать мысленный образ и обеспечить живость оригинала через «звуки дождя и речушки».

    ПРИЛ.4.

    Героический женский персонаж, которым восхищаются дамы , более славный и красивый объект , чем добрая, свежая, улыбающаяся, бесхитростная, нежная, маленькая домашняя богиня , кого мужчины склонен к поклонению .(William Thackeray: Vanity Fair)

    男人们

    虽然把那些 眉开眼笑,脸色鲜嫩,脾气温和,心地善良,不明白世事的小东西 当神明似的供奉在家, 太太小姐们 却佩服 女中的豪杰 ;而且两相比起来,女中豪杰的确 更值得颂扬和赞美 。(杨必译)

    This translation results from the image-Gestalt actualization rather than an item-for-item replacement. The translator imagines a whole scene, in which the heroic female character and the little domestic goddess exist, what they are, and how men and ladies think about them. In other words, he grasps the image-Gestalt and recreates the harmonious aesthetic images acceptable to the target readers.


    5. Заключение

    Поскольку литературным произведениям свойственны эстетические переживания читателя, художественный перевод становится отличным от других видов перевода. С одной стороны, в плане ментального образа речь идет об образе-гештальте, интеграции частей или субобразов, актуализированных из художественных текстов. С другой стороны, образное восприятие естественным образом вовлекается в работу переводчика и участие творческого воображения. С помощью воображения переводчик получает доступ к актуализации образа-гештальта.Из этих двух аспектов делается вывод о том, что художественный перевод представляет собой динамичный целостный процесс взаимодействия переводчика и текста. Это исследование должно подчеркнуть роль переводчика как активного субъекта и улучшить понимание переводчиком творческого воображения, поскольку воображение — это сила, вызывающая интеграцию частей и дополняющая актуализацию образа-гештальта. Будем надеяться, что мы сможем разработать более применимые методы для улучшения изучения эстетической прогрессии в художественном переводе.


    Каталожные номера:

    Бронте, Шарлотта. Джейн Эйр [М]. http://www.eshunet.com

    Диккенс, Чарльз. Дэвид Копперфильд [М]. http://www.eshunet.com

    Харди, Томас. Тесс д’Эрбервиль [М]. http://www.eshunet.com

    Iser, W. Искусство чтения: теория эстетического отклика [M]. Издательство Университета Джона Хопкинса, 1978.

    .

    Лефевр, А. Перевод, переписывание и манипулирование литературной славой [M].Routledge,1992.

    Thackeray, William. Vanity Fair [M]. http://www.eshunet.com

    Snell-Hornby, Mary. Translation Studies: An Integrated Approach [M] . Shanghai Foreign Language Education Press,2001

    Williams, Jenny & Chesterman, Andrew. The Map, A Beginner’s Guide to Doing Research in Translation Studies [M].

    Leave a comment