Никаких этических законов для ИИ не существует

_____

 



Изоб­ра­же­ние: ВЗГЛЯД


Я пишу вам из будущего – прямо из подвала. Там, наверху, роботы, управляемые искусственным интеллектом Skynet, добивают остатки сопротивления живых людей под лозунгом «Смерть луддитам». Сейчас догорит свеча, человеческий интернет окончательно отключат, и беспилотные траки «Тесла» разравняют площадки для постройки очередного дата-центра. Я просто пытаюсь предупредить скорбных гуманитариев. Считайте это несвоевременным сарказмом


Все нач­нет­ся со шко­лы. И даже не тогда, когда школь­ни­ки будут вме­сто соб­ствен­ных зна­ний под­со­вы­вать гал­лю­ци­на­ции ИИ вме­сто отве­тов на экза­ме­нах. А слу­чит­ся это, когда ИИ нач­нет эти экза­ме­ны у школь­ни­ков при­ни­мать. Такие идеи регу­ляр­но выска­зы­ва­ют­ся. Как это будет выгля­деть кон­крет­но.

Авто­ма­ти­за­ция уст­ных экза­ме­нов: ИИ может при­ни­мать уст­ные отве­ты, ана­ли­зи­руя не толь­ко содер­жа­ние, но и пове­де­ние экза­ме­ну­е­мо­го.

Прок­то­ринг (кон­троль спи­сы­ва­ния): ней­ро­се­ти кон­тро­ли­ру­ют чест­ность, выяв­ляя попыт­ки спи­сать, исполь­зо­ва­ние теле­фо­на или при­сут­ствие посто­рон­них лиц.

Гене­ра­ция тесто­вых зада­ний: ИИ созда­ет раз­но­об­раз­ные вопро­сы, вклю­чая слож­ные, для про­вер­ки глу­бо­ких зна­ний.

Оцен­ка зна­ний: быст­рый ана­лиз откры­тых отве­тов и эссе, выяв­ле­ние про­бе­лов в зна­ни­ях.

Нач­нем с того, что в таком вари­ан­те тор­пе­ди­ру­ет­ся одно из фун­да­мен­таль­ных поня­тий педа­го­ги­ки: экза­мен – это инте­граль­ная часть вос­пи­та­тель­но­го про­цес­са. И важ­ней­ший этап обще­ния педа­го­га и уче­ни­ка.

Отда­вая его авто­ма­ту, вы пре­вра­ща­е­те экза­мен в допрос с исполь­зо­ва­ни­ем детек­то­ра лжи. Учи­ты­вая, что детек­тор лжи не дела­ет заклю­че­ний и не выно­сит реше­ний – это дела­ют люди. Послед­ние два пунк­та – совер­шен­но убой­ные, так как к тому вре­ме­ни, когда идея реа­ли­зу­ет­ся, ИИ будет не толь­ко врать в таких важ­ных темах, как исто­рия, обще­ство и лите­ра­ту­ра, он уже будет поль­зо­вать­ся пло­да­ми мно­го­лет­не­го вра­нья, соб­ствен­но, самих ИИ, запу­щен­ных в сеть. Уже сей­час каж­дый хоро­ший узкий спе­ци­а­лист в раз­лич­ных сек­то­рах стал­ки­ва­ет­ся с про­бле­мой точ­но­сти инфор­ма­ции, вери­фи­ка­ции и т.д. Пото­му что поло­ви­ну отве­тов ИИ при­ду­мы­ва­ет сам. Будучи пой­ман­ным на вра­нье, он льсти­во изви­ня­ет­ся и гово­рит: «Да, вы правы,дело на самом деле обсто­ит так-то и так-то». И, ско­рее все­го, опять даст толь­ко часть инфор­ма­ции.

Если вы еще нахо­ди­тесь в пузы­ре тор­гов­цев услу­га­ми ИИ, то вас, навер­ное, царап­ну­ло сло­во «авто­ма­ти­за­ция». Но по клас­си­че­ско­му опре­де­ле­нию дис­ци­пли­ны «Авто­ма­ти­зи­ро­ван­ные систе­мы» – это штука,преобразующая вход­ные сиг­на­лы (дан­ные дат­чи­ков) в выход­ные дей­ствия (дви­же­ния испол­ни­тель­ных меха­низ­мов). А как это скон­стру­и­ро­ва­но тех­ни­че­ски, уже нико­го не вол­ну­ет.

Предо­став­ляя пра­во экза­ме­но­вать ваших детей авто­ма­ту, вы пре­вра­ща­е­те необ­хо­ди­мый школь­ный этап в пыт­ку. А если учесть, что каж­дое новое поко­ле­ние совер­шен­но оче­вид­но неж­ней преды­ду­ще­го, и все хуже и хуже уме­ет дер­жать пси­хо­ло­ги­че­ский удар – это будет ад. Нам вполне доста­точ­но того, как дети не справ­ля­ют­ся даже с дав­ле­ни­ем ЕГЭ.

Впро­чем, соче­та­ние ИИ и шко­лы уже сего­дня выгля­дит доста­точ­но крин­жо­во. Есть одна стра­на, кото­рая пол­но­стью про­фу­ка­ла циф­ро­ви­за­цию, но началь­ство велит соот­вет­ство­вать. В Гер­ма­нии рабо­чую тет­радь для инклю­зив­ных школ сге­не­ри­ро­ва­ли в ИИ.

Вот какие кар­тин­ки пред­ста­ли перед поль­зо­ва­те­ля­ми учеб­но­го посо­бия по мате­ма­ти­ке: неесте­ствен­но иска­жен­ные физио­но­мии людей, веду­щие в нику­да две­ри, кана­то­хо­дец без кана­та. А даль­ше – сплош­ной Иеро­ним Босх: сло­не­нок без хобо­та, чело­век с шестью гла­за­ми, учи­тель с шестью паль­ца­ми на одной руке и голо­ва ребен­ка, лежа­щая на пол­ке.

Вся эта незем­ная кра­со­та сопро­вож­да­ет­ся неве­ро­ят­ным коли­че­ством ариф­ме­ти­че­ских оши­бок в зада­ни­ях. Автор (ка) потра­ти­ла на созда­ние этой тет­ра­ди год (про­пи­сью – 365 дней). Хоте­лось бы поер­ни­чать: «и так у них все», но про­бле­ма в том, что не толь­ко у «них» так. Так – у всех.

Пото­му что ИИ созда­ет­ся не для оча­ро­ван­ных стран­ни­ков, кото­рые дума­ют, что пишут с помо­щью искус­ствен­ных моз­гов песен­ки, рису­ют кар­тин­ки и рома­ны. Это все – про­сто эта­пы обу­че­ния, и объ­ект обу­че­ния тут – не вы. Вы – вовсе наобо­рот – про­сто халяв­ный тре­нер сили­ко­но­во­го мон­стра.  Помни­те пре­крас­ную исто­рию – когда поль­зо­ва­те­ли игры «Поке­мо­ны» собра­ли неве­ро­ят­ную базу дан­ных с при­вяз­кой к мест­но­сти про­сто во вре­мя игры? Гео­дан­ные, кото­рые не мог­ли собрать гуг­ло­мо­би­ли с каме­ра­ми. Очень полез­ные дан­ные для пла­ни­ро­ва­ния опе­ра­ций и боев в усло­ви­ях мега­по­ли­сов. Есте­ствен­но, дан­ные все уже про­да­ны нуж­ным ком­па­ни­ям.

Текст от гла­вы «Палан­ти­ра» – бук­валь­но мани­фест Биг­те­ха – не остав­ля­ет сомне­ний в том, зачем все это дела­ет­ся. Это при­мер бес­при­мес­но­го ново­го фашиз­ма. Тех­но­фа­шиз­ма.

«Вопрос не в том, будет ли созда­но ору­жие на осно­ве ИИ, а в том, кто его создаст и с какой целью. Наши про­тив­ни­ки не ста­нут делать пау­зу ради теат­раль­ных дис­кус­сий о целе­со­об­раз­но­сти раз­ра­бот­ки тех­но­ло­гий, име­ю­щих кри­ти­че­ское зна­че­ние для армии и наци­о­наль­ной без­опас­но­сти. Они будут дей­ство­вать», – гово­рит­ся в тек­сте.

С это­го момен­та вооб­ще ста­но­вит­ся ясно, кто и зачем созда­ет все более мощ­ный ИИ. И ста­ра­тель­но внед­ря­ет его во все угол­ки чело­ве­че­ской дея­тель­но­сти на манер игры «Пой­май поке­мо­на». Конеч­но, мы смот­рим, как китай­ские робо­ты участ­ву­ют в мара­фоне, кто-то пада­ет и раз­ле­та­ет­ся на кус­ки, и все пере­жи­ва­ют за желе­зя­ку, как за сво­е­го. Робо­ты встре­ча­ют гостей на кон­фе­рен­ци­ях, выпол­ня­ют роль офи­ци­ан­тов. Но это все – пыль в гла­за на манер ИИ-шеч­ных одно­тип­ных муль­ти­ков, кото­рые не кле­па­ет нын­че толь­ко лени­вый. Пото­му, что робо-акту­а­лоч­ка теперь выгля­дит так.

Наш про­тив­ник актив­но внед­ря­ет назем­ные робо­ти­зи­ро­ван­ные ком­плек­сы (НРК) для выпол­не­ния бое­вых и логи­сти­че­ских задач, стре­мясь в самом близ­ком буду­щем заме­нить до 30% лич­но­го соста­ва на пере­до­вой. Робо­ты исполь­зу­ют­ся для раз­вед­ки, эва­ку­а­ции ране­ных, раз­ми­ни­ро­ва­ния, логи­сти­ки, а так­же для штур­ма пози­ций, что сни­жа­ет рис­ки для сол­дат. Уже в этом году пла­ни­ру­ет­ся исполь­зо­вать до 25 000 назем­ных робо­тов для заме­ны пехо­ты в самых слож­ных рай­о­нах фрон­та.

Мы тоже дви­жем­ся в этом направ­ле­нии, пото­му что нам не остав­ля­ют выбо­ра. Айзек Ази­мов в рас­ска­зе «Хоро­вод» пред­при­нял наи­бо­лее извест­ную сей­час попыт­ку созда­ния эти­че­ских пра­вил для робо­тов. По замыс­лу авто­ра, три зако­на долж­ны нало­жить эти­че­ский отте­нок на пове­де­ние маши­ны.

 1. Робот не может при­чи­нить вред чело­ве­ку или сво­им без­дей­стви­ем допу­стить, что­бы чело­ве­ку был при­чи­нен вред.

2. Робот дол­жен пови­но­вать­ся всем при­ка­зам, кото­рые дает чело­век, кро­ме тех слу­ча­ев, когда эти при­ка­зы про­ти­во­ре­чат Пер­во­му Зако­ну.

3. Робот дол­жен забо­тить­ся о сво­ей без­опас­но­сти в той мере, в кото­рой это не про­ти­во­ре­чит Пер­во­му или Вто­ро­му Зако­нам.

И все тогдаш­ние авто­ры, наце­лен­ные в буду­щее и его опи­са­ние – согла­си­лись. Фан­та­сты-роман­ти­ки Аме­ри­ки. Сколь­ко лет они нам эту лап­шу веша­ли на уши. Опи­сы­ва­ли, кста­ти, что будет, если робо­ты ста­нут эти зако­ны нару­шать. Спой­лер вин­таж­ной лите­ра­ту­ры: пло­хо будет.

И вдруг ока­зы­ва­ет­ся, что ника­ких эти­че­ских зако­нов нет, роман­ти­че­ские бред­ни пер­вых идео­ло­гов и футу­ри­стов робо­то­стро­е­ния выбро­ше­ны на помой­ку. Инду­стрия начи­на­ет стро­ить робо­тов, кото­рые созда­ны имен­но с целью нане­сти вред чело­ве­ку и даже его убить насмерть. И это сего­дняш­ний день.

Но насто­я­щим чер­ным днем чело­ве­че­ства ста­нет тот день, когда под­раз­де­ле­ни­я­ми робо­тов-сол­дат нач­нет управ­лять дру­гой робот – то есть ИИ. Пол­но­стью лишен­ный таких качеств, как совесть, интел­лект, не име­ю­щий пред­став­ле­ния о доб­ре и зле. То есть – при­мер­но тот самый «Скай­нет», о кото­ром нам рас­ска­зы­вал Джеймс Каме­рон в «Тер­ми­на­то­ре».

Помни­те исто­рию о том совет­ском офи­це­ре, кото­рый засо­мне­вал­ся, что угро­за ракет­ной ата­ки со сто­ро­ны аме­ри­кан­цев – это не сбой систе­мы. И не нажал на кноп­ку. В тот раз Апо­ка­лип­сис не состо­ял­ся, пото­му что это был реаль­ный сбой систе­мы. В ана­ло­гич­ной ситу­а­ции искус­ствен­ный интел­лект, не обре­ме­нен­ный сомне­ни­я­ми и сове­стью, про­сто нане­сет удар, и как мож­но быст­рее.

И если кто-то выжи­вет, то даже обви­нить в уни­что­же­нии 90 про­цен­тов чело­ве­че­ства будет неко­го. Не будет боль­ше Гит­ле­ра, на кото­ро­го мож­но все сва­лить. Ну, раз­ве что тех пар­ни­шек, кото­рые очень хоте­ли зара­бо­тать, и стро­и­ли свои ИИ, избе­гая про­стых чело­ве­че­ских поня­тий и качеств, пото­му что сами не обла­да­ли ими напрочь. Мож­но, конеч­но, выка­тить пре­тен­зию это­му умни­ку из «Палан­ти­ра», кото­рый рас­ска­зал, что бога боль­ше нет, души нет, чело­веч­но­сти нет и поэто­му все поз­во­ле­но. Кста­ти, о чем пре­ду­пре­ждал есте­ствен­ный интел­лект моде­ли FM Dostoyevsky.

Впро­чем, до ядер­ной вой­ны нас могут дове­сти и вполне опре­де­лен­ные, живые пока, люди, не дожи­да­ясь «Скай­не­та». Но робо­ты уже сей­час могут при­сту­пить к уни­что­же­нию плен­ных, а так­же граж­дан­ско­го насе­ле­ния на раз­ве­дан­ных искус­ствен­ным интел­лек­том участ­ках тер­ри­то­рий, и им никто не поме­ша­ет. Прак­ти­ка малых дел, как она есть.

Пони­маю, что я сей­час выгля­жу, как луд­дит.

Но тут суще­ству­ет исто­ри­че­ская под­ме­на и шель­мо­ва­ние. Имен­но нере­гу­ли­ру­е­мое раз­ви­тие средств про­из­вод­ства (сна­ча­ла в ткац­ком деле) тогда, в XIX веке, во вре­мя про­мыш­лен­ной рево­лю­ции, при­ве­ло к еще боль­ше­му зака­ба­ле­нию рабо­че­го клас­са. А в наши веге­та­ри­ан­ские вре­ме­на, напри­мер, вызва­ло уни­что­же­ние наци­о­наль­ных инду­стрий на целых кон­ти­нен­тах, зава­лен­ных секонд-хэнд тря­пьем из «циви­ли­зо­ван­ных стран» – при­мер Афри­кан­ско­го кон­ти­нен­та вам в лен­ту. Так что луд­ди­ты in the end of the day были не так уж непра­вы.

Игорь Маль­цев, ВЗГЛЯД

 

Рейтинг: 
Средняя оценка: 5 (всего голосов: 3).

_____

_____

 

_____

 

ПОДДЕРЖКА САЙТА

_____