Как стать автором
Обновить

Комментарии 5

Сегодня компьютеры умеют распознавать объекты на изображениях и кадрах видео с точностью до 98 %, уже опережая человека с его 97 %.

По роду деятельности занимаюсь поиском изображений с помощью Гугла, какие то изображения распознаются отлично, но на специфических паттернах точность ниже плинтуса.
А иногда и вовсе доходит до смешного.
Из свежих курьезов: искал фото сгоревшего электрического чйника.
Чуть не упал со стула когда увидел что гугл опознал фото как «кондом давший течь».
Что бы сказал дедушка Фрейд по поводу этой нейросети?

Заголовок спойлера
image

Гугл странно работает — переводит картинку в куцый текст и ищет уже по тексту, считай выбрасывает 90% инфы. Тот же Яндекс явно использует хэши картинок, так что в результатах появляются более релевантные запросу картинки, например сходной стилистики или других свойств, которые простым текстом передать не получится.
Возможно какая-то игра слов, подпись под картинкой нецензурная, типа ситуации, когда испортился чайник и залил всё вокруг кипятком. Раздосадованный владелец выкладывает фотографию с подписью «condom leak!», Google запоминает пару таких ситуаций, не понимая (пока что) что это матафора. А может и «понимает» и так «шутит» уже в ответ зеркально ))
Подпись под картинкой это ватермарк шаттерстока + ИД номер картинки.
Никакой крамолы, чисто справочная информация.

Kроме того, фото искалось по ссылке к фотостоку где ключевые слова уже прописаны в самом линке
Было бы логично из ссылки выудить ключевики и хотя бы в виде версии рассмотреть вариант что на фото именно то что описано.

image-photo/faulty-automatic-electric-kettle-caught-450w-1160483563.jpg
Картинка не в одном экземпляре, на двух фотостоках нашел как минимум. Может не корректно распознал один из языков, вот одна из подписей: Automatico guasto bollitore elettrico preso fuoco — ID dell’immagine: PTTNCW
Зарегистрируйтесь на Хабре, чтобы оставить комментарий