Искусственный интеллект путает порно и пустыню

Полиция Великобритании обратилась к высокотехнологичному искусственному интеллекту, который должен помочь вести войну против бича детской порнографии, но система в настоящее время переживает трудные времена. ИИ не может найти отличия между наготой и фотографиями пустынь.

Сайт The Telegraph сообщает, что цифровой отдел судебно-медицинской экспертизы полиции Великобритании занимается созданием искусственного интеллекта для сканирования телефонов и компьютеров подозреваемых на наличие детской порнографии, так что сотрудники полиции больше не будут подвергаться психологической травме, которая может возникнуть при просмотре чужих снимков.

Отдел, который должен был просмотреть 53000 устройств только в прошлом году, надеется на систему искусственного интеллекта, способную выполнять данную работу автоматически. Искусственный интеллект должен быть введён в работу в ближайшие два или три года.

Несмотря на то, что система достаточно хорошо определяет некоторые предметы на фотографиях, такие вещи, как наркотики, оружие и деньги, она не может увидеть различия между обнаженными телами и песчаными дюнами.

«Иногда система находит непристойное изображение, но это оказывается пустыня», говорит Марк Стокса, руководитель цифровой судебно-медицинской экспертизы. «По некоторым причинам многие люди ставят на заставку фотографии пустынь, а система думает, что это цвет кожи».

Технология распознавания образов проделала длинный путь в последние годы. Google предлагает систему, автоматически описывающую содержание снимка и проставляющую хэштеги с точностью 94%. Но эти системы искусственного интеллекта делали досадные ошибки. Google и Flickr извинялись в 2015 году после того, как их автоматическая маркировка снимков определяла людей с темным цветом кожи как обезьян.

Следите за новостями: FacebookВконтакте и Telegram

ИСТОЧНИКtelegraph

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь