В США школьный ИИ принял кларнет у ученика за оружие и объявил тревогу
22 декабря. ПРАВМИР. В одной из средних школ штата Флорида (США) сработала система экстренной безопасности после ошибки алгоритма видеоаналитики.
Искусственный интеллект, встроенный в камеры наблюдения школы Лоутон-Чайлз, принял кларнет в руках ученика за огнестрельное оружие, из-за чего в учебном заведении немедленно ввели режим изоляции.
Как сообщили изданию Futurism в полиции, сигнал тревоги поступил автоматически, и у администрации школы не было возможности проигнорировать предупреждение. Учебное заведение перешло на «красный код», однако вскоре выяснилось, что угрозы нет.
«Режим изоляции был введен исключительно в целях предосторожности. Детям ничего не угрожало», — подчеркнули правоохранители.
Директор школы доктор Мелисса Лаудани в обращении к родителям пояснила, что в округе действует многоуровневая система безопасности, основанная в том числе на автоматическом выявлении потенциальных угроз.
При этом в произошедшем она обвинила самого ученика, отметив, что он держал музыкальный инструмент «так, будто это было оружие».
«Хотя опасности для кампуса не существовало, я прошу вас обсудить с детьми риски, связанные с имитацией оружия на территории школы», — написала Лаудани.
Инцидент вызвал критику в адрес используемой технологии. Система не смогла отличить кларнет от огнестрельного оружия, что поставило под сомнение точность и надежность подобных решений.
Издание также напомнило о недавнем случае в Балтиморе, где алгоритм школьного видеонаблюдения ошибочно распознал небольшой пакет чипсов Doritos как пистолет. Это привело к жесткому задержанию 16-летнего подростка, в котором участвовали как минимум восемь вооруженных полицейских.
Компания Omniilert, чья система фигурировала в балтиморском инциденте, ранее заявляла, что её технология «работала так, как задумано», отдавая приоритет безопасности и предполагая быструю проверку человеком.
Случаи во Флориде и Балтиморе вновь подняли вопрос о том, насколько готовы системы видеонаблюдения на основе искусственного интеллекта к массовому внедрению в школы. Ошибки такого рода могут быть не менее опасны, чем ситуации, когда реальную угрозу система не распознает вовсе.