Как распознать фото, сделанное искусственным интеллектом
4 мая 2023 г.Еще никогда не было так просто воплощать фантазии. Для этого нужен только доступ к интернету и инструментам искусственного интеллекта. Такие нейросети как Midjourney, DALL-E или DeepAI за считанные секунды сгенерируют фотореалистичную картинку или создадут оригинальное изображение, причем высокого качества. Нейросеть способна самостоятельно делать абсолютно новый контент или трансформировать уже имеющийся: менять цвета, форму и положение предметов на картинке, добавлять новые элементы и удалять ненужные, перерисовывать изображение в другом стиле, жанре и т. д.
"Услуги" искусственного интеллекта почти ничего не стоят, а иногда и вообще бесплатны. Именно поэтому сегодня в соцсетях там много броских и притягательных, самых разных изображений, мгновенно распространяющихся по всему миру. Бизнесменам, маркетологам, дизайнерам, копирайтерам и многим другим нейросети действительно облегчают труд и освобождают время. Но в то же время ИИ стали все чаще стали использовать во вред человеку, в частности - для пропаганды и дезинформации.
Последние несколько месяцев в интернете все чаще появляются фотографии, созданные при помощи или самим искусственным интеллектом. Среди прочих особенное внимание привлек снимок якобы Владимира Путина, преклонившего колено перед председателем КНР Си Цзяньпином и целующего ему руку; изображение якобы Дональда Трампаа в окружении арестовавших его полицейских, а также похожий по тематике снимок с якобы российским президентом, которого ведут под руки люди в бронежилетах и черных шлемах; изображение папы римского Франциска в модном белом пуховике; фотография Илона Маска, мило держащего за руку свою конкурентку - гендиректора General Motors Мэри Барру. Все эти снимки выглядят весьма правдоподобными, если говорить об их техническом исполнении. При этом на них - события, которых в действительности не было. Это говорит о том, что все более и более совершенствующиеся алгоритмы и нейронные сети уже сейчас способны стереть грань между реальностью и вымыслом.
Землетрясения, которых не было
Фотографии большинства зрелищных событий типа автомобильных гонок или космических полетов, а также арестов знаменитостей могут быть довольно быстро проверены пользователями. Достаточно обратиться к авторитетным СМИ или иным заслуживающим доверия источникам в сети.
Более проблематичными и опасными с точки зрения распространения дезинформации являются картинки, на которых изображены менее известные люди. Об этом рассказал в интервью DW эксперт по ИИ Генри Эйдер (Henry Ajder). "Но не только сгенерированные изображения конкретных персон могут являться дезинформацией. Мы видели людей, которые сами создавали события, которых никогда не было, например, землетрясения", - добавил специалист. Речь идет о сильном землетрясении, которое якобы произошло в северо-западной части Тихого океана в 2001 году. Но, как выяснилось, ничего такого не было, и фотографии, размещенные на англоязычной платформе Reddit, были созданы при помощи ИИ.
Однако на данный момент все еще можно отличить настоящие фотографии от искусственно созданных. Ведь так же, как и человеку, ИИ свойственно ошибаться. Как обнаружить манипуляцию? Несколько советов.
1. Увеличить масштаб и внимательно рассмотреть детали
Многие изображения, созданные ИИ, на первый взгляд очень реальны. Распознать подделку можно только при ближайшем рассмотрении. Для этого найдите версии снимка с максимально возможным разрешением и увеличьте детали. Тогда и станут видны возможные несоответствия, несостыковки линий и теней, цветовые ошибки, клоны изображения и т.п.
2. Найти источник изображения
Если вы не уверены, является ли изображение реальным, попробуйте побольше узнать о его происхождении. Например, иногда другие пользователи делятся своими мыслями в комментариях, и благодаря этому можно выйти на источник или первую публикацию картинки. Может помочь и обратный поиск изображения. Для этого загрузите картинку в такие инструменты, как обратный поиск изображений Google, TinEye или Yandex. В результате часто находится дополнительная информация о снимке, а иногда - и о его происхождении. Возможно, авторитетные источники уже проводили фактчекинг, и тогда поисковик выдаст разъяснение в результатах поиска.
3. Обратить внимание на пропорции тела
Верны ли пропорции тела изображенных людей? Именно в этом пункте ИИ часто совершает ошибки: сгенерированные руки могут быть слишком маленькими, а пальцы - слишком длинными. Или голова и ноги не соответствуют остальной части тела. Например, на фейковой фотографии Путина и Си Цзиньпина, задний ботинок коленопреклоненного человека черезчур большой и широкий. Икра той же ноги кажется удлиненной. Да и голова при внимательном рассмотрении слишком велика и непропорциональна по отношению к телу.
4. Помнить и видеть типичные ошибки ИИ
В данный момент некоторые программы обработки изображений с ИИ никак не научатся правильно изображать части тела человека, особенно руки. То и дело они пририсовывают шестой палец. Или отнимают пятый. Как, например, на снимке папы Франциска в белом пуховике - на его левой руке в белой перчатке только четыре пальца, а на снимке без перчатки пальцы непропорционально длинные.
Очень часто у "поддельных людей" бывает слишком много зубов. Или странной формы уши и глаза. Очки, которые любят надевать людям ИИ, как правило деформированы и неестественно сидят. Отражающие поверхности тоже создают проблемы программам ИИ и облегчают их разоблачение.
5. Не кажется ли изображение неестественным
Часто картинки ИИ слишком идеальны, чтобы быть правдой. Доверьтесь своей интуиции: может ли такое безупречное с эстетической точки зрения изображение быть реальным? Если говорить о портретных фотоснимках, то подозрение может вызвать слишком гладкая кожа человека, слишком ровные и гармоничные пропорции лица, безупречные зубы и волосы. Следует внимательнее присмотреться к фотографиям, идеальный художественный вид которых с трудом могут достичь даже профессиональные фотографы при студийной съемке и последующей обработке изображения. ИИ создает идеалы, которые должны понравиться всем.
6. Изучить фон изображения
На фоне объекты могут отображаться искаженными - например, фонари. Часто бывает, что программы ИИ клонируют людей и предметы, используя их в одном снимке дважды. Кроме того, фон нередко бывает размытым.
Выводы
Сегодня многие изображения, созданные искусственным интеллектом, могут быть идентифицированы как таковые, если их внимательно рассмотреть и узнать об их происхождении. Однако не стоит забывать, что по мере совершенствования технологий ИИ сведет на нет свои ошибки. И даже детекторы ИИ, такие как Hugging Face, не смогут помочь нам обнаружить фальсификацию - детекторы дают подсказки, но не более того. Опрошенные DW эксперты не советуют на них полностью полагаться, поскольку они ошибаются, и бывает, что реальные фотографии объявляются фейком и наоборот. Поэтому, вероятнее всего, нам пора привыкать к тому, что в интернете нельзя доверять ни одной картинке.
Примечание: DW не публикует изображения, созданные ИИ. В качестве исключения мы можем показать изображения, созданные при помощи ИИ, если они являются предметом сообщения, например, когда мы приводим пример фальшивых новостей или рассказываем о возможностях ИИ. В таком случае мы четко указываем, что эти изображения созданы при помощи ИИ.
Смотрите также: