Խոշոր աղետները կարող են փոխակերպել արդյունաբերություններն ու մշակույթները: Ջոնսթաունի ջրհեղեղը, «Տիտանիկի» խորտակումը, Հինդենբուրգի պայթյունը, «Կատրինա» փոթորիկին թերի արձագանքը – յուրաքանչյուրն ունեցել է տեւական ազդեցություն:
Նույնիսկ երբ աղետները մեծ թվով մարդկանց չեն սպանում, դրանք հաճախ փոխում են մեր մտածելակերպն ու վարվելակերպը: 2008 թվականի ֆինանսական փլուզումը հանգեցրեց բանկերի և ֆինանսական հաստատությունների ավելի խիստ կանոնակարգմանը: Երեք մղոն կղզու վթարը հանգեցրեց միջուկային էներգիայի արդյունաբերության անվտանգության բարելավմանը:
Սովորեք ավելի արագ: Ավելի խորը փորեք: Տես ավելի հեռու:
Երբեմն մի շարք բացասական վերնագրեր կարող են փոխել կարծիքը և ուժեղացնել մեր գիտակցությունը թաքնված խոցելիության մասին: Տարիներ շարունակ համակարգչային վնասակար որդերն ու վիրուսները գիտաֆանտաստիկայի առարկա էին: Հետո մենք զգացինք Melissa, Mydoom և WannaCry: Կիբերանվտանգությունն ինքնին համարվում էր էզոթերիկ տեխնոլոգիայի խնդիր, քանի դեռ մենք իմացանք Equifax-ի խախտման, Colonial Pipeline փրկագին հարձակման, Log4j խոցելիության և SolarWinds-ի զանգվածային հաքի մասին: Մենք իսկապես չէինք մտածում կիբերանվտանգության մասին, քանի դեռ իրադարձությունները ստիպեցին մեզ ուշադրություն դարձնել:
AI-ի «SolarWinds պահը» այն կդարձնի նիստերի դահլիճի խնդիր շատ ընկերություններում: Եթե արհեստական ինտելեկտի լուծումը լայնածավալ վնաս պատճառեր, հետաքննության ռեսուրսներով և դատավարական լիազորություններով կարգավորող մարմինները կհայտնվեին: Խորհրդի անդամները, տնօրենները և կորպորատիվ պաշտոնյաները կարող են պատասխանատվության ենթարկվել և կարող են ենթարկվել քրեական հետապնդման: Կորպորացիաների կողմից հսկայական տուգանքներ վճարելու և տեխնոլոգիաների ղեկավարներին բանտարկելու գաղափարը AI-ի չարաշահման համար հեռու չէ. Եվրահանձնաժողովի առաջարկած AI ակտը ներառում է պատժամիջոցների երեք մակարդակ չկատարման համար՝ մինչև 30 միլիոն եվրո տուգանք կամ 6%-ը: ընդհանուր համաշխարհային տարեկան եկամուտը՝ կախված խախտման ծանրությունից:
Մի քանի տարի առաջ ԱՄՆ սենատոր Ռոն Ուայդենը (D-Oregon) ներկայացրել է օրինագիծ, որը պահանջում է «ընկերություններից գնահատել սպառողների տվյալները մշակող ալգորիթմները՝ ուսումնասիրելու դրանց ազդեցությունը ճշտության, արդարության, կողմնակալության, խտրականության, գաղտնիության և անվտանգության վրա»: Օրինագիծը ներառում էր նաև խիստ քրեական պատիժներ «բարձրաստիճան ղեկավարների համար, ովքեր գիտակցաբար ստում են» Առևտրի դաշնային հանձնաժողովին տվյալների օգտագործման վերաբերյալ: Թեև քիչ հավանական է, որ օրինագիծը օրենք դառնա, պարզապես քրեական հետապնդման և ազատազրկման հնարավորությունների բարձրացումը մեծացրել է «առևտրային կազմակերպությունների համար, որոնք գործում են բարձր ռիսկային տեղեկատվական համակարգեր կամ ավտոմատ որոշումներ կայացնելու համակարգեր, ինչպիսիք են արհեստական ինտելեկտը կամ մեքենան կիրառողները»: սովորել»։
AI + նեյրոգիտություն + քվանտային հաշվարկ. մղձավանջային սցենար
Համեմատած կիբերանվտանգության ռիսկերի հետ՝ AI-ի կործանարար ուժի մասշտաբները պոտենցիալ շատ ավելի մեծ են: Երբ AI-ն ունի իր «Արևային քամիների պահը», ազդեցությունը կարող է զգալիորեն ավելի աղետալի լինել, քան կիբերանվտանգության մի շարք խախտումները: Խնդրեք AI փորձագետներին կիսվել AI-ի վերաբերյալ իրենց ամենավատ մտավախություններով, և նրանք, ամենայն հավանականությամբ, նշեն սցենարներ, որոնցում AI-ն համակցված է նյարդաբանության և քվանտային հաշվարկների հետ: Դուք կարծում եք, որ AI-ն այժմ սարսափելի է: Պարզապես սպասեք, մինչև այն աշխատի քվանտային կոպրոցեսորի վրա և միանա ձեր ուղեղին:
Ահա ավելի հավանական մղձավանջային սցենար, որը նույնիսկ չի պահանջում որևէ նոր տեխնոլոգիա. նահանգային կամ տեղական կառավարությունները օգտագործում են արհեստական ինտելեկտ, դեմքի ճանաչում և պետհամարանիշեր ընթերցողներ՝ բացահայտելու, ամաչելու կամ հետապնդելու ընտանիքներին կամ անհատներին, որոնք անբարոյական կամ հակահամարվող վարքագծեր են կատարում: -հասարակական. Այդ վարքագծերը կարող են տատանվել՝ սկսած արգելված գրքի գովազդից մինչև աբորտ փնտրելը մի նահանգում, որտեղ աբորտը խիստ սահմանափակված է:
AI-ն իր սաղմնային փուլում է, բայց ժամացույցը թրթռում է: Լավ նորությունն այն է, որ AI համայնքում շատ մարդիկ մտածել, խոսել և գրել են AI էթիկայի մասին: AI-ի և մեքենայական ուսուցման էթիկական օգտագործման վերաբերյալ պատկերացում և ռեսուրսներ տրամադրող կազմակերպությունների օրինակներ են՝ Չիկագոյի համալսարանի Բութ Բիզնեսի Դպրոցի Կիրառական Արհեստական Ինտելեկտի Կենտրոնը, LA Tech4Good-ը, AI Hub-ը McSilver-ում, AI4ALL-ը և Ալգորիթմական արդարադատության լիգան: .
Առաջարկվող միջոցների պակաս չկա վազում: Պետական գործակալությունները, ոչ կառավարական կազմակերպությունները, կորպորացիաները, շահույթ չհետապնդող կազմակերպությունները, վերլուծական կենտրոնները և համալսարանները ստեղծել են կանոնների, կանոնակարգերի, ուղեցույցների, շրջանակների, սկզբունքների և քաղաքականության առաջարկների բեղմնավոր հոսք, որոնք կսահմանափակեն AI-ի չարաշահումը և կապահովեն դրա օգտագործումը: եղանակներով, որոնք ավելի շուտ օգտակար են, քան վնասակար: Սպիտակ տան գիտության և տեխնոլոգիաների քաղաքականության գրասենյակը վերջերս հրապարակեց արհեստական ինտելեկտի իրավունքների օրինագծի նախագիծը: Նախագիծը անիրագործելի փաստաթուղթ է: Բայց այն ներառում է հինգ թարմացնող կոպիտ սկզբունքներ, որոնք, եթե իրականացվեն, զգալիորեն կնվազեցնեն չկարգավորվող AI լուծումներից բխող վտանգները: Ահա նախագծի հինգ հիմնական սկզբունքները.
- Դուք պետք է պաշտպանված լինեք ոչ անվտանգ կամ անարդյունավետ համակարգերից:
- Դուք չպետք է խտրականության բախվեք ալգորիթմների միջոցով, և համակարգերը պետք է օգտագործվեն և նախագծվեն արդար ձևով:
- Դուք պետք է պաշտպանված լինեք տվյալների չարաշահման պրակտիկաներից՝ ներկառուցված պաշտպանությունների միջոցով, և պետք է ունենաք գործակալություն, թե ինչպես են օգտագործվում ձեր մասին տվյալները:
- Դուք պետք է իմանաք, որ օգտագործվում է ավտոմատացված համակարգ և հասկանաք, թե ինչպես և ինչու է այն նպաստում ձեզ վրա ազդող արդյունքներին:
- Դուք պետք է կարողանաք հրաժարվել, որտեղ անհրաժեշտ է, և մուտք ունենաք այն անձի հետ, ով կարող է արագ քննարկել և շտկել ձեր հանդիպած խնդիրները:
Կարևոր է նշել, որ հինգ սկզբունքներից յուրաքանչյուրը վերաբերում է արդյունքներին, այլ ոչ թե գործընթացներին: Քեթի Օ’Նիլ, հեղինակ Մաթեմատիկական ոչնչացման զենքեր, առաջարկել է արդյունքների վրա հիմնված նմանատիպ մոտեցում ալգորիթմական կողմնակալության հետևանքով առաջացած հատուկ վնասները նվազեցնելու համար: Արդյունքների վրա հիմնված ռազմավարությունը կքննարկի AI կամ ML լուծման ազդեցությունը շահագրգիռ կողմերի հատուկ կատեգորիաների և ենթախմբերի վրա: Նման հատիկավոր մոտեցումը կհեշտացնի վիճակագրական թեստերի մշակումը, որոնք կարող են որոշել, թե արդյոք լուծումը վնասում է խմբերից որևէ մեկին: Ազդեցությունը որոշվելուց հետո ավելի հեշտ կլինի փոփոխել AI լուծումը և մեղմացնել դրա վնասակար հետևանքները:
Gamifying կամ crowdsourcing կողմնակալության հայտնաբերումը նույնպես արդյունավետ մարտավարություն է: Նախքան դրա լուծարումը, Twitter-ի AI-ի էթիկայի թիմը հաջողությամբ անցկացրեց «կողմնակալության պարգևների» մրցույթ, որը թույլ տվեց ընկերությունից դուրս հետազոտողներին ուսումնասիրել լուսանկարահանման ավտոմատ ալգորիթմը, որը գերադասում էր սպիտակամորթներին, քան սևամորթներին:
Մարդկանց վրա պատասխանատվությունը վերադարձնելը
Արդյունքների վրա կենտրոնանալը գործընթացների փոխարեն կարևոր է, քանի որ այն հիմնովին տեղափոխում է պատասխանատվության բեռը արհեստական ինտելեկտի լուծումից այն աշխատող մարդկանց վրա:
Անա Չուբինիձեն, AdalanAI-ի հիմնադիրը, որը Բեռլինում տեղակայված AI կառավարման համար ծրագրային հարթակ է, ասում է, որ «էթիկական AI» և «պատասխանատու AI» տերմինների օգտագործումը լղոզում է խնդիրը՝ առաջարկելով, որ AI լուծումը, այլ ոչ թե այն մարդիկ, ովքեր օգտագործում են այն. պետք է պատասխանատվություն կրել, երբ դա վատ բան է անում. Նա բարձրացնում է մի հիանալի կետ. AI-ն մեր հորինած հերթական գործիքն է: Մեր վրա է դրված էթիկական վարքագիծը, երբ այն օգտագործում ենք: Եթե մենք դա չանենք, ուրեմն մենք էթիկայից դուրս ենք, ոչ թե արհեստական ինտելեկտը:
Ինչու՞ է կարևոր, թե ով կամ ինչ է պատասխանատու: Դա կարևոր է, քանի որ մենք արդեն ունենք մեթոդներ, տեխնիկա և ռազմավարություններ՝ մարդկանց մեջ պատասխանատվությունը խրախուսելու և պարտադրելու համար: Պատասխանատվություն սովորեցնելը և այն սերունդից սերունդ փոխանցելը քաղաքակրթության ստանդարտ հատկանիշ է: Մենք չգիտենք, թե ինչպես դա անել մեքենաների համար: Առնվազն դեռ ոչ։
Լրիվ ինքնավար AI-ի դարաշրջանը հորիզոնում է: Արդյո՞ք AI-ներին լիարժեք ինքնավարություն շնորհելը նրանց պատասխանատու կդարձնի իրենց որոշումների համար: Եթե այո, ապա ո՞ւմ էթիկան է առաջնորդելու նրանց որոշումների կայացման գործընթացները: Ո՞վ է դիտելու պահակներին:
Google Research-ի փոխնախագահ և գործընկեր Բլեզ Ագուերա և Արկասը երկար, խոսուն և լավ փաստագրված հոդված է գրել արհեստական ինտելեկտին մարդկային արժեքներն իրական հասկանալու ուսուցման հնարավորությունների մասին: Նրա հոդվածը վերնագրված է. Կարո՞ղ են մեքենաները սովորել, թե ինչպես վարվել: արժե կարդալ. Այն ուժեղ հիմք է հանդիսանում, որ մեքենաները ձեռք բերեն արդարության և բարոյական պատասխանատվության զգացում: Բայց արդարացի է հարցնել, թե արդյոք մենք՝ որպես հասարակություն և որպես տեսակ, պատրա՞ստ ենք լուծելու մարդկային հիմնական պարտականությունները ինքնավար AI-ներին փոխանցելու հետևանքները:
Պատրաստվելով այն ամենին, ինչ տեղի կունենա հետո
Այսօր մարդկանց մեծամասնությանը չեն հետաքրքրում AI-ի կպչուն մանրամասները և հասարակության վրա դրա երկարաժամկետ ազդեցությունը: Ծրագրային ապահովման համայնքում հաճախ թվում է, թե մենք հեղեղված ենք AI-ի էթիկայի վերաբերյալ հոդվածներով, հոդվածներով և կոնֆերանսներով: «Բայց մենք պղպջակի մեջ ենք, և պղպջակից դուրս շատ քիչ տեղեկացվածություն կա», – ասում է Չուբինիձեն: «Իրազեկությունը միշտ առաջին քայլն է: Այդ դեպքում մենք կարող ենք պայմանավորվել, որ մենք խնդիր ունենք, և որ մենք պետք է այն լուծենք։ Առաջընթացը դանդաղ է, քանի որ մարդկանց մեծ մասը տեղյակ չէ խնդրի մասին»:
Բայց վստահ եղեք. AI-ն կունենա իր «Արևային քամիների պահը»: Եվ երբ գա ճգնաժամի այդ պահը, AI-ն իսկապես հակասական կդառնա, ինչպես սոցիալական մեդիան դարձել է անձնական ազատության, կորպորատիվ պատասխանատվության, ազատ շուկաների և կառավարության կարգավորման շուրջ վիճելի վեճերի բռնկման կետ:
Չնայած ձեռքով գրգռվածությանը, հոդվածագրությանը և Կոնգրեսի վահանակներին, սոցիալական մեդիան հիմնականում չկարգավորված է: Ելնելով սոցիալական մեդիայի հետ ունեցած մեր փորձից՝ խելամիտ է արդյոք ակնկալել, որ մենք կարող ենք կոչ անել արդյունավետորեն կարգավորել AI-ն:
Պատասխանը այո է: Արհեստական ինտելեկտի հանրային ընկալումը խիստ տարբերվում է սոցիալական մեդիայի հանրային ընկալումից: Իր սկզբնական շրջանում սոցիալական մեդիան համարվում էր «անվնաս» զվարճանք. Մի քանի տարի պահանջվեց, որպեսզի այն վերածվի ատելություն տարածելու և ապատեղեկատվություն տարածելու լայնորեն նողկալի հարթակի: Մյուս կողմից, արհեստական ինտելեկտի նկատմամբ վախն ու անվստահությունը տասնամյակներ շարունակ եղել են ժողովրդական մշակույթի հիմնական մասը:
Արհեստական ինտելեկտի նկատմամբ աղիքային վախը կարող է իսկապես հեշտացնել ուժեղ կանոնակարգերի ընդունումն ու կիրարկումը, երբ տեղի է ունենում բեկումնային կետ, և մարդիկ սկսում են աղաղակել իրենց ընտրված պաշտոնյաների համար, որպեսզի «ինչ-որ բան անեն» արհեստական ինտելեկտի հետ կապված:
Այդ ընթացքում մենք կարող ենք դասեր քաղել ԸՕ-ի փորձից։ AI ակտի նախագիծը, որը ներառում է տարբեր շահագրգիռ կողմերի տեսակետները, պահանջներ է առաջացրել քաղաքացիական իրավունքների կազմակերպություններից՝ «AI համակարգերի ավելի լայն արգելման և կարգավորման վերաբերյալ»: Շահագրգիռ կողմերը կոչ են արել «արգելել կենսաչափական միջոցների անխտիր կամ կամայականորեն նպատակային օգտագործումը հանրային կամ հանրության համար մատչելի վայրերում և սահմանափակել արհեստական ինտելեկտի համակարգերի օգտագործումը, ներառյալ սահմանային հսկողությունը և կանխատեսող ոստիկանական գործողությունները»: Նախագծի մեկնաբանները խրախուսել են «AI-ի կիրառման ավելի լայն արգելք՝ մարդկանց դասակարգելու համար՝ հիմնված ֆիզիոլոգիական, վարքային կամ կենսաչափական տվյալների վրա, զգացմունքների ճանաչման, ինչպես նաև վտանգավոր օգտագործման համար ոստիկանության, միգրացիայի, ապաստանի և սահմանների կառավարման համատեքստում»: »
Այս բոլոր գաղափարները, առաջարկներն ու առաջարկները կամաց-կամաց ձևավորում են կոնսենսուսի հիմնարար մակարդակ, որը, հավանաբար, օգտակար կլինի, երբ մարդիկ սկսում են ավելի լուրջ վերաբերվել չկարգավորվող AI-ի ռիսկերին, քան այսօր:
Միներվա Տանտոկոն՝ City Strategies LLC-ի գործադիր տնօրենը և Նյու Յորքի առաջին տեխնոլոգիական տնօրենը, իրեն բնութագրում է որպես «լավատես և նաև պրագմատիկ», երբ դիտարկում է AI-ի ապագան: «Լավ արդյունքներն ինքնուրույն չեն լինում: Արհեստական ինտելեկտի նման գործիքների համար էթիկական, դրական արդյունքները կպահանջեն ակտիվ մոտեցում ուղեցույցների, գործիքակազմերի, թեստավորման և թափանցիկության մշակման համար: Ես լավատես եմ, բայց մենք պետք է ակտիվորեն ներգրավվենք և կասկածի տակ դնենք AI-ի օգտագործումը և դրա ազդեցությունը», – ասում է նա:
Տանտոկոն նշում է, որ «Մենք որպես հասարակություն դեռևս սկզբում ենք հասկանալու արհեստական ինտելեկտի ազդեցությունը մեր առօրյա կյանքի վրա՝ լինի դա մեր առողջությունը, ֆինանսները, զբաղվածությունը կամ հաղորդագրությունները, որոնք մենք տեսնում ենք»: Այնուամենայնիվ, նա «հույսի պատճառ է տեսնում աճող գիտակցության մեջ, որ AI-ն պետք է միտումնավոր օգտագործվի, որպեսզի լինի ճշգրիտ և արդար… Քաղաքականություն մշակողների շրջանում կա նաև գիտակցություն, որ AI-ն կարող է օգտագործվել դրական ազդեցության համար, և որ կանոնակարգերն ու ուղեցույցները անհրաժեշտ կլինեն օգնելու համար: ապահովել դրական արդյունքներ»։