Microsoft планира да премахне инструментите за анализ на лица в настояване за „отговорен AI“

В продължение на години лекарите и учените изразяват опасения, че софтуерът за анализ на лицето, който твърди, че може да идентифицира възрастта, пола и емоционалното състояние на човека, може да бъде предубеденненадежден или инвазивен – и не трябва да се продава.

Признавайки някои от тези критики, Microsoft заяви във вторник, че планира да премахне тези функции от своя служба за изкуствен интелект за откриване, анализиране и разпознаване на лица. Те ще спрат да бъдат достъпни за нови потребители тази седмица и ще бъдат премахнати постепенно за съществуващи потребители в рамките на годината.

Промените са част от настояването на Microsoft за по-строг контрол на своите продукти за изкуствен интелект. След двугодишен преглед екип на Microsoft разработи „Стандарт за отговорен AI“, документ от 27 страници, който определя изискванията към системите за изкуствен интелект, за да се гарантира, че те няма да имат пагубно въздействие върху обществото.

Изискванията включват гарантиране, че системите предоставят „валидни решения за проблемите, които са предназначени да разрешат“ и „подобно качество на услугата за идентифицирани демографски групи, включително маргинализирани групи“.

Преди да бъдат пуснати, технологиите, които биха били използвани за вземане на важни решения относно достъпа на дадено лице до заетост, образование, здравеопазване, финансови услуги или житейска възможност, подлежат на преглед от екип, ръководен от Наташа Крамптън, главен отговорен AI директор на Microsoft. .

Имаше повишени опасения в Microsoft относно инструмента за разпознаване на емоции, който обозначаваше нечие изражение като гняв, презрение, отвращение, страх, щастие, неутрално, тъга или изненада.

„Има огромно количество културни, географски и индивидуални вариации в начина, по който изразяваме себе си“, г-жа. — каза Крамптън. Това доведе до опасения за надеждност, заедно с по-големите въпроси дали „изражението на лицето е надежден индикатор за вашето вътрешно емоционално състояние“, каза тя.

Инструментите за анализ на възрастта и пола, които се елиминират – заедно с други инструменти за откриване на атрибути на лицето, като коса и усмивка – биха могли да бъдат полезни за интерпретиране на визуални изображения за слепи или хора със слабо зрение, например, но компанията реши, че е проблематично да се направи инструментите за профилиране, общодостъпни за обществеността, г-жо. — каза Крамптън.

По-специално, добави тя, така нареченият пол класификатор на системата е двоичен, „и това не е в съответствие с нашите ценности“.

Microsoft също така ще постави нови контроли на своята функция за разпознаване на лица, която може да се използва за извършване на проверки на самоличността или търсене на конкретен човек. Uber, например, използва софтуера в приложението си, за да се увери, че лицето на шофьор съвпада с идентификатора, регистриран за акаунта на този шофьор. Разработчиците на софтуер, които искат да използват инструмента на Microsoft за разпознаване на лица, ще трябва да кандидатстват за достъп и да обяснят как планират да го внедрят.

Потребителите също ще трябва да кандидатстват и да обяснят как ще използват други потенциално злоупотребяващи AI системи, като напр Персонализиран невронен глас. Услугата може да генерира отпечатък на човешки глас въз основа на извадка от нечия реч, така че авторите, например, да могат да създават синтетични версии на своя глас, за да четат своите аудиокниги на езици, които не говорят.

Поради възможната злоупотреба с инструмента – за да се създаде впечатлението, че хората са казали неща, които не са – високоговорителите трябва да преминат през серия от стъпки, за да потвърдят, че използването на техния глас е разрешено, а записите включват водни знаци, откриваеми от Microsoft .

„Ние предприемаме конкретни стъпки, за да изпълним нашите принципи на AI“, каза г-жа. Крамптън, който работи като адвокат в Microsoft в продължение на 11 години и се присъедини към групата за етичен AI през 2018 г. „Това ще бъде огромно пътуване“.

Microsoft, подобно на други технологични компании, имаше пречки със своите изкуствено интелигентни продукти. През 2016 г. той пусна чат-бот в Twitter, наречен Tay, който е предназначен да научи „разговорно разбиране“ от потребителите, с които е взаимодействал. Ботът бързо започна да бълва расистки и обидни туитовеи Microsoft трябваше да го свали.

През 2020 г. изследователите откриха, че инструментите за преобразуване на говор в текст, разработени от Microsoft, Apple, Google, IBM и Amazon работи по-малко добре за черните хора. Системата на Microsoft беше най-добрата от групата, но погрешно идентифицира 15 процента от думите за белите хора, в сравнение с 27 процента за чернокожите.

Компанията беше събрала разнообразни данни за реч, за да обучи своята AI система, но не беше разбрала колко разнообразен може да бъде езикът. Затова нае експерт по социолингвистика от Вашингтонския университет, за да обясни езиковите разновидности, за които Microsoft трябва да знае. Той надхвърли демографията и регионалното разнообразие в начина, по който хората говорят във формални и неформални условия.

„Мисленето за расата като определящ фактор за това как някой говори всъщност е малко мислене“, г-жа. — каза Крамптън. „Това, което научихме при консултация с експерта, е, че всъщност огромен набор от фактори влияят на езиковото разнообразие.“

Госпожица. Крамптън каза, че пътуването за коригиране на това несъответствие между говор и текст е помогнало за информирането на насоките, изложени в новите стандарти на компанията.

„Това е критичен период за определяне на норми за ИИ“, каза тя, като посочи Предложените от Европа регламенти определяне на правила и ограничения за използването на изкуствен интелект. “Надяваме се да можем да използваме нашия стандарт, за да се опитаме да допринесем за ярката, необходима дискусия, която трябва да се проведе за стандартите, към които трябва да се придържат технологичните компании.”

А оживен дебат за потенциалните вреди от AI се работи от години в технологичната общност, подхранвано от грешки и грешки, които реални последици върху живота на хората, като алгоритми, които определят дали хората получават социални помощи или не. Холандски данъчни власти по погрешка е отнел надбавките за отглеждане на дете от нуждаещи се семейства, когато а грешен алгоритъм наказани хора с двойно гражданство.

Автоматизираният софтуер за разпознаване и анализиране на лица е особено спорен. Миналата година, Facebook изключвам своята десетилетна система за идентифициране на хора по снимки. Вицепрезидентът на компанията по изкуствен интелект цитира „многото опасения относно мястото на технологията за разпознаване на лица в обществото“.

Няколко черни мъже са били неправомерно арестуван след дефектни съвпадения за разпознаване на лица. И през 2020 г., по същото време, когато Black Lives Matter протестира след полицейското убийство на Джордж Флойд в Минеаполис, Amazon и Microsoft издадоха мораториуми върху използването на техните продукти за разпознаване на лица от полицията в Съединените щати, като казаха по-ясни закони относно използването му бяха необходими.

От тогава, Вашингтон и Масачузетс са приели регламент, изискващ, наред с други неща, съдебен надзор върху използването от полицията на инструменти за разпознаване на лица.

Госпожица. Крамптън каза, че Microsoft е обмисляла дали да започне да предоставя софтуера си на полицията в щати със закони за книгите, но засега е решила да не го прави. Тя каза, че това може да се промени с промяната на правната среда.

Арвинд Нараянан, професор по компютърни науки в Принстън и известен експерт по изкуствен интелектказаха, че компаниите може да се отдръпват от технологиите, които анализират лицето, защото са „по-висцерални, за разлика от различни други видове AI, които може да са съмнителни, но не е задължително да усещаме в костите си“.

Компаниите може също да осъзнаят, че поне за момента някои от тези системи не са толкова търговски ценни, каза той. Microsoft не можа да каже колко потребители е имал за функциите за анализ на лицето, от които се отървава. Г-н. Нараянан прогнозира, че е по-малко вероятно компаниите да изоставят други инвазивни технологии, като насочена реклама, която профилира хората да избират най-добрите реклами, които да им показват, защото са „дойни крави“.