Искусственный интеллект научили понимать, когда он бывает глуповат
Ученые Массачусетского технологического института в США посчитали, что, при всех огромных возможностях искусственного интеллекта, бывают ситуации, когда он недостаточно компетентен. И система должна сама определять, когда имеют место такие случаи. Это особенно важно, если программа принимает решения, важные для жизни людей.
Исследователи решили создать такой критерий оценки и внедрить его в систему искусственного интеллекта. И испытания показали, что программа смогла определять такие случаи довольно точно. К примеру, если компьютеру, который учили распознавать большое разнообразие изображений, предлагали нечто очень отличное от уже виденного, он сигнализировал о неуверенности в своем выборе. В реальных ситуациях это будет означать, что необходимо вмешательство человека.
Точность работы искусственного интеллекта может быть очень высокой, но даже один процент ошибок способен привести к серьезным последствиям. Поэтому при все увеличивающихся масштабах цифровизации так важно, чтобы программа понимала пределы своих возможностей, сообщает Science Alert.