Microsoft’s Calling It се отказва от технологията за разпознаване на страховити емоции

Изображение за статия, озаглавена Microsoft's Calling It Quits на Creepy Emotion Recognition Tech

Снимка: Джон Макдугъл (Getty Images)

Microsoft му обръща гръб научно подозрителен и етично съмнително технология за разпознаване на емоции. Засега поне.

В голяма победа за защитниците на поверителността, които алармират за недостатъчно тествана и инвазивна биометрична технология, Microsoft обяви, че планира да оттегли своите т. нар. системи за разпознаване на емоции от услугите си за разпознаване на лица Azure Face. Компанията също така постепенно ще премахне способностите, които се опитват да използват AI за извеждане на атрибути на идентичност като пол и възраст.

Решението на Microsoft да дръпне спирачките на спорната технология идва на фона на по-голямо основен ремонт на своите етични политики. Наташа Крамптън, главен отговорен AI директор на Microsoft, каза, че обръщането на компанията идва в отговор на експерти, които цитират липсата на консенсус относно дефиницията на „емоции“ и опасенията от прекомерно обобщаване на това как системите за изкуствен интелект могат да тълкуват тези емоции.

„Сътрудничихме си с вътрешни и външни изследователи, за да разберем ограниченията и потенциалните предимства на тази технология и да се ориентираме в компромисите“, каза Сара Бърд, главният продуктов мениджър на Azure AI. изявление. „Достъпът на API до възможности, които предвиждат чувствителни атрибути, също така отваря широк спектър от начини, с които те могат да бъдат злоупотребени – включително подлагане на хората на стереотипи, дискриминация или несправедливо отказване на услуги“, добави Бърд.

Бърд каза, че компанията ще се премести далеч от система с общо предназначение в API на Azure Face, която се опитва да измери тези атрибути в опит да „смекчи рисковете“. От вторник новите клиенти на Azure вече няма да имат достъп до тази система за откриване, въпреки че настоящите клиенти ще трябва до 2023 г. да преустановят използването си. Най-важното е, че докато Microsoft казва, че нейният API вече няма да е достъпен за употреба с общо предназначение, Bird каза, че компанията все още може да изследва технологията в определени случаи на ограничена употреба, особено като инструмент за подкрепа на хора с увреждания.

„Microsoft признава, че тези възможности могат да бъдат ценни, когато се използват за набор от сценарии за контролирана достъпност“, добави Бърд.

Корекцията на курса идва в опит да приведе в съответствие политиките на Microsoft с нейните нови 27 страници Отговорен AI Стандарт документ за една година в процес на създаване. Наред с други насоки, стандартът призовава Microsoft да гарантира, че продуктите й са обект на подходящо управление на данните, поддържат информиран човешки надзор и контрол и „предоставят валидни решения на проблемите, които са предназначени да разрешат“.

Технологията за разпознаване на емоции е „в най-добрия случай груба“.

В интервю за Gizmodo, изпълнителният директор на проекта за надзор на технологиите за наблюдение Алберт Фокс Кан нарече „безсмислено“ за Microsoft да обърне гръб на технологията за разпознаване на емоции.

“Истината е, че технологията в най-добрия случай е груба, способна да дешифрира най-много малка подгрупа от потребители.” каза Фокс Кан. „Но дори технологията да бъде подобрена, тя пак ще накаже всеки, който е невродивергентен. Подобно на повечето поведенчески AI, разнообразието се наказва и тези, които мислят различно, се третират като опасност.

Старши политически анализатор на ACLU Джей Стенли приветства решението на Microsoft, което според него отразява “научната лоша репутация” на автоматичното разпознаване на емоции.

„Надявам се, че това ще помогне за укрепване на по-широкото разбиране, че тази технология не е нещо, на което трябва да се разчита или да се внедрява извън експериментални контексти“, каза Стенли по време на телефонен разговор с Gizmodo. „Майкрософт е известно име и голяма компания и се надявам да има широк ефект, като помага на другите да разберат сериозните недостатъци на тази технология.“

Съобщението във вторник пристига след години на натиск от активисти и академици, които се обявиха срещу потенциалните етични и неприкосновени клопки за неприкосновеност на личния живот на лесно достъпното разпознаване на емоциите. Един от тези критици, професорът по изследване на USC Annenberg Кейт Крауфорд, се задълбочи в ограниченията на разпознаването на емоции (наричани още „разпознаване на афекти“) в своята книга от 2021 г. Атлас на ИИ. За разлика от лицевото разпознаване, което се опитва да идентифицира самоличността на конкретен индивид, емоционалното разпознаване се стреми да „открива и класифицира емоциите чрез анализиране на всяко лице“ – твърдението, което Кроуфорд твърди, е фундаментално погрешно.

„Трудността при автоматизирането на връзката между движенията на лицето и основните емоционални категории води до по-големия въпрос дали емоциите могат да бъдат адекватно групирани в малък брой отделни категории изобщо“, пише Крофорд. „Има упорит проблем, че израженията на лицето може да показват малко за нашите честни вътрешни състояния, както може да потвърди всеки, който се е усмихнал, без да се чувства истински щастлив.

Крофорд не е сам. И 2019г доклад проведено от изследователския център на NYU AI Сега се твърди, че технологията за разпознаване на емоции, поставена в грешни ръце, може потенциално да позволи на институциите да вземат антиутопични решения относно годността на индивидите да участват в основните аспекти на обществото. Авторите на доклада призоваха регулаторите да забранят технологията. Съвсем наскоро група от 27 групи за цифрови права написа отворено писмо до главния изпълнителен директор и основател на Zoom Ерик С. Юан, който го призовава да отмени усилията на Zoom за интегриране на разпознаване на емоции във видео разговори.

Опорът на Microsoft върху емоционалната интелигентност идва почти точно две години след като се присъедини към Amazon и IBM забрана полицията използва разпознаване на лица. Оттогава екипите по етика на ИИ в големи технологични фирми като Google и Twitter имат пролифериранмакар и не без някои нагорещени напрежения. Въпреки че евентуалното решение на Microsoft да откаже разпознаването на емоции може да го спаси от отразяване на същото ужасяващо Проблеми с общественото доверие, които измъчват други технологични фирми, компанията остава основна сила за безпокойство сред защитниците на неприкосновеността на личния живот и гражданската свобода поради партньорствата си с правоприлагащите органи и нетърпелив интерес към военни договори.

Решението на Microsoft като цяло беше приветствано от групите за поверителност, но Фокс Кан каза на Gizmodo, че желае Microsoft да предприеме допълнителни действия по отношение на това другото, по-изгодно, но също толкова по отношение на технологиите.

„Въпреки че това е важна стъпка, Microsoft все още трябва да извърви дълъг път, за да изчисти своя опит за граждански права“, каза Фокс Кан. „Фирмата все още печели от системата за информираност на домейните, [an] Оруелски разузнавателен софтуер, създаден в партньорство с NYPD. Системата за информираност на домейна и системите за AI за полицейски контрол, които тя позволява, пораждат абсолютно същите опасения като емоционалното разпознаване, само DAS е печеливш.”

.