Rreziqet e AI janë reale, por të menaxhueshme

0
AI Concerns - article

Nga Bill Gates | 11 korrik 2023

Bota ka mësuar shumë për trajtimin e problemeve të shkaktuara nga inovacionet e reja.

Rreziqet e krijuara nga inteligjenca artificiale mund të duken dërrmuese. Çfarë ndodh me njerëzit që humbasin punën e tyre për shkak të një makinerie inteligjente? A mund të ndikojë AI në rezultatet e zgjedhjeve? Po sikur një inteligjencë artificiale e ardhshme të vendosë, se nuk ka më nevojë për njerëzit dhe dëshiron të na heqë qafe?

Të gjitha këto janë pyetje të drejta dhe shqetësimet që ata ngrenë duhet të merren seriozisht. Por ka një arsye të mirë për të menduar se ne mund të përballemi me to: kjo nuk është hera e parë që një risi e madhe paraqet kërcënime të reja që duhen kontrolluar. Ne e kemi bërë më parë.

Qoftë prezantimi i makinave apo rritja e kompjuterëve personalë dhe e internetit, njerëzit ia kanë dalë mbanë në momente të tjera transformuese dhe, pavarësisht shumë turbulencave, në fund kanë dalë më mirë. Menjëherë pasi makinat e para dolën në rrugë, ndodhi përplasja e parë me makinë. Por ne nuk i ndaluam makinat – miratuam kufijtë e shpejtësisë, standardet e sigurisë, kërkesat për licencë, ligjet e drejtimit të automjetit në gjendje të dehur dhe rregulla të tjera të rrugës.

Tani jemi në fazën më të hershme të një ndryshimi tjetër të thellë, Epoka e AI. Është analoge me ato kohë të pasigurta përpara kufizimeve të shpejtësisë dhe rripave të sigurimit. AI po ndryshon aq shpejt sa nuk është e qartë se çfarë do të ndodhë më pas. Ne po përballemi me pyetje të mëdha të ngritura nga mënyra se si funksionon teknologjia aktuale, mënyrat se si njerëzit do ta përdorin atë për qëllime të këqija dhe mënyrat se si AI do të na ndryshojë si shoqëri dhe si individë.

Në një moment si ky, është e natyrshme të ndihesh i shqetësuar. Por historia tregon se është e mundur të zgjidhen sfidat e krijuara nga teknologjitë e reja.

Unë kam shkruar më parë se si AI do të revolucionarizojë jetën tonë. Do të ndihmojë në zgjidhjen e problemeve – në shëndetësi, arsim, ndryshime klimatike dhe më shumë – që dikur dukeshin të vështira. Fondacioni Gates po e bën atë një prioritet dhe CEO ynë, Mark Suzman, së fundmi tregoi se si po mendon për rolin e tij në reduktimin e pabarazisë.

Do të kem më shumë për të thënë në të ardhmen për përfitimet e AI, por në këtë postim, dua të pranoj shqetësimet që dëgjoj dhe lexoj më shpesh, shumë prej të cilave i ndaj, dhe të shpjegoj se si mendoj për to.

Një gjë që është e qartë nga gjithçka, që është shkruar deri më tani për rreziqet e AI – dhe është shkruar shumë – është se askush nuk i ka të gjitha përgjigjet. Një tjetër gjë që është e qartë për mua është se e ardhmja e AI nuk është aq e zymtë sa mendojnë disa njerëz ose aq rozë sa mendojnë të tjerët. Rreziqet janë reale, por jam optimist se mund të menaxhohen. Ndërsa kaloj çdo shqetësim, do të kthehem te disa tema:

  • Shumë nga problemet e shkaktuara nga AI kanë një precedent historik. Për shembull, do të ketë një ndikim të madh në arsim, por po ashtu edhe llogaritësit e dorës disa dekada më parë dhe, së fundmi, lejimi i kompjuterëve në klasë. Ne mund të mësojmë nga ajo që ka funksionuar në të kaluarën.
  • Shumë nga problemet e shkaktuara nga AI mund të menaxhohen edhe me ndihmën e AI.
  • Ne do të na duhet të përshtatim ligjet e vjetra dhe të miratojmë të reja – ashtu si ligjet ekzistuese kundër mashtrimit duhej të përshtateshin me botën online.

Në këtë postim, unë do të përqendrohem në rreziqet që janë tashmë të pranishme, ose së shpejti do të jenë. Nuk po merrem me atë që ndodh kur zhvillojmë një AI, që mund të mësojë çdo lëndë ose detyrë, në krahasim me AI-të e sotme të ndërtuara me qëllim.

Pavarësisht nëse e arrijmë atë pikë në një dekadë apo një shekull, shoqëria do të duhet të llogarisë me pyetje të thella. Po sikur një super AI vendos qëllimet e veta? Po sikur të bien ndesh me njerëzimin? A duhet të bëjmë fare një super AI?

Por të menduarit për këto rreziqe afatgjata nuk duhet të bëhet në kurriz të atyre më të menjëhershme. Unë do t’u drejtohem atyre tani.

Falsifikimet e thella dhe dezinformatat e krijuara nga AI mund të minojnë zgjedhjet dhe demokracinë.

Ideja se teknologjia mund të përdoret për të përhapur gënjeshtra dhe të pavërteta nuk është e re. Njerëzit e kanë bërë këtë me libra dhe fletëpalosje për shekuj me radhë. U bë shumë më e lehtë me ardhjen e përpunuesve të tekstit, printerëve lazer, postës elektronike dhe rrjeteve sociale.

Inteligjenca artificiale e merr këtë problem të tekstit të rremë dhe e zgjeron atë, duke lejuar pothuajse këdo që të krijojë audio dhe video të rreme, të njohura si “deepfakes” (falsifikime të thella). Nëse merrni një mesazh zanor që tingëllon sikur fëmija juaj thotë: “Më kanë rrëmbyer, ju lutemi dërgoni 1000 dollarë në këtë llogari bankare brenda 10 minutave të ardhshme dhe mos telefononi policinë“, do të ketë një ndikim të tmerrshëm emocional, përtej efektit të një emaili që thotë të njëjtën gjë.

Në një shkallë më të madhe, falsifikimet e krijuara nga AI mund të përdoren për të tentuar të anojnë zgjedhjet. Sigurisht, nuk nevojitet teknologji e sofistikuar për të mbjellë dyshime për fituesin legjitim të zgjedhjeve, por AI do ta bëjë më të lehtë.

Tashmë ka video të rreme që shfaqin filmime të fabrikuara të politikanëve të njohur. Imagjinoni që në mëngjesin e një zgjedhjeje të madhe, një video që tregon një nga kandidatët duke grabitur një bankë bëhet virale. Është e rreme, por mediave dhe fushatës u duhen disa orë për ta vërtetuar. Sa njerëz do ta shohin dhe do të ndryshojnë votat e tyre në minutën e fundit? Mund të përkulë peshoren, veçanërisht në një zgjedhje të ngushtë.

Kur bashkë-themeluesi i OpenAI, Sam Altman dëshmoi para një komiteti të Senatit të SHBA së fundmi, senatorët nga të dyja palët vunë re ndikimin e AI në zgjedhje dhe demokraci. Shpresoj që kjo temë të vazhdojë të jetë në axhendën e të gjithëve.

Sigurisht që ne nuk e kemi zgjidhur problemin e dezinformatave dhe falsifikimeve. Por dy gjëra më bëjnë optimist të kujdesshëm. Njëra është se njerëzit janë të aftë të mësojnë të mos marrin gjithçka në vlerën e parë. Për vite të tëra, përdoruesit e emaileve ranë nga mashtrimet ku dikush që paraqitej si një princ nigeran premtoi një fitim të madh në këmbim të ndarjes së numrit të kartës suaj të kreditit. Por përfundimisht, shumica e njerëzve mësuan të shikonin dy herë në ato email. Ndërsa mashtrimet bëheshin më të sofistikuara, kështu u bënë edhe shumë nga objektivat e tyre. Ne do të duhet të ndërtojmë të njëjtin muskul për deepfakes.

Gjëja tjetër që më bën të shpresoj është se AI mund të ndihmojë në identifikimin e falsifikimit të thellë si dhe krijimin e tyre. Intel, për shembull, ka zhvilluar një detektor të falsifikimit të thellë dhe agjencia qeveritare DARPA po punon në teknologji për të identifikuar, nëse video ose audio është manipuluar.

Ky do të jetë një proces ciklik: Dikush gjen një mënyrë për të zbuluar falsifikimin, dikush tjetër kupton se si ta kundërshtojë atë, dikush tjetër zhvillon kundërmasa, e kështu me radhë. Nuk do të jetë një sukses i përsosur, por as ne nuk do të jemi të pafuqishëm.

Inteligjenca artificiale i bën më të lehta sulmet ndaj njerëzve dhe qeverive.

Sot, kur hakerët duan të gjejnë të meta të shfrytëzueshme në softuer, ata e bëjnë këtë me forcë brutale — duke shkruar kodin që fshin dobësitë e mundshme, derisa të zbulojnë një mënyrë për të hyrë. Kjo përfshin të zbresësh shumë rrugica qorre, që do të thotë se kërkon kohë dhe durim.

Ekspertët e sigurisë që duan të kundërshtojnë hakerat duhet të bëjnë të njëjtën gjë. Çdo patch softueri, që instaloni në telefonin ose laptopin tuaj përfaqëson shumë orë kërkimi, nga njerëz me qëllime të mira dhe të këqija.

Modelet e AI do ta përshpejtojnë këtë proces duke ndihmuar hakerat të shkruajnë kode më efektive. Ata gjithashtu do të jenë në gjendje të përdorin informacione publike rreth individëve, si ku punojnë dhe cilët janë miqtë e tyre, për të zhvilluar sulme phishing, që janë më të avancuara se ato që shohim sot.

Lajmi i mirë është se AI mund të përdoret si për qëllime të mira ashtu edhe për të këqija. Ekipet e sigurisë së qeverisë dhe të sektorit privat duhet të kenë mjetet më të fundit për gjetjen dhe rregullimin e të metave të sigurisë përpara se kriminelët të mund të përfitojnë prej tyre. Shpresoj se industria e sigurisë së softuerit do të zgjerojë punën që ata tashmë po bëjnë në këtë front – duhet të jetë një shqetësim kryesor për ta.

Kjo është gjithashtu arsyeja pse ne nuk duhet të përpiqemi t’i ndalojmë përkohësisht njerëzit të zbatojnë zhvillime të reja në AI, siç kanë propozuar disa. Kriminelët kibernetikë nuk do të ndalojnë së prodhuari mjete të reja. As njerëzit që duan të përdorin AI për të hartuar armë bërthamore dhe sulme bioterrore. Përpjekjet për t’i ndaluar ato duhet të vazhdojnë me të njëjtin ritëm.

Ekziston një rrezik i lidhur në nivel global: një garë armatimi për AI, që mund të përdoret për të hartuar dhe nisur sulme kibernetike kundër vendeve të tjera. Çdo qeveri dëshiron të ketë teknologjinë më të fuqishme, në mënyrë që të mund të pengojë sulmet nga kundërshtarët e saj. Kjo nxitje për të mos lejuar askënd të ecë përpara mund të ndezë një garë për të krijuar armë kibernetike gjithnjë e më të rrezikshme. Të gjithë do të ishin më keq.

Ky është një mendim i frikshëm, por ne kemi historinë për të na udhëhequr. Megjithëse regjimi botëror i mospërhapjes bërthamore ka gabimet e veta, ai ka parandaluar luftën bërthamore gjithëpërfshirëse, nga e cila brezi im kishte aq frikë kur ne ishim duke u rritur. Qeveritë duhet të konsiderojnë krijimin e një organizmi global për AI, të ngjashëm me Agjencinë Ndërkombëtare të Energjisë Atomike.

Inteligjenca artificiale do t’u heqë punët e njerëzve.

Në vitet e ardhshme, ndikimi kryesor i AI në punë do të jetë të ndihmojë njerëzit të bëjnë punën e tyre në mënyrë më efikase. Kjo do të jetë e vërtetë nëse ata punojnë në një fabrikë ose në një zyrë që trajton thirrjet e shitjeve dhe llogaritë e pagueshme.

Përfundimisht, AI do të jetë mjaft i mirë në shprehjen e ideve, që do të jetë në gjendje të shkruajë emailet tuaja dhe të menaxhojë kutinë tuaj hyrëse për ju. Ju do të jeni në gjendje të shkruani një kërkesë në anglisht të thjeshtë, ose në ndonjë gjuhë tjetër dhe të krijoni një prezantim të pasur për punën tuaj.

Siç argumentova në postimin tim të shkurtit, është mirë për shoqërinë kur produktiviteti rritet. Kjo u jep njerëzve më shumë kohë për të bërë gjëra të tjera, në punë dhe në shtëpi. Dhe kërkesa për njerëz që ndihmojnë të tjerët – për shembull, mësimi, kujdesi për pacientët dhe mbështetjen e të moshuarve – nuk do të zhduket kurrë. Por është e vërtetë që disa punëtorë do të kenë nevojë për mbështetje dhe rikualifikim, ndërsa ne e bëjmë këtë tranzicion në një vend pune të fuqizuar nga AI. Ky është një rol për qeveritë dhe bizneset, dhe ata do të duhet ta menaxhojnë atë mirë në mënyrë që punëtorët të mos mbeten prapa – për të shmangur llojin e përçarjes në jetën e njerëzve, që ka ndodhur gjatë rënies së vendeve të punës në prodhim në Shtetet e Bashkuara.

Gjithashtu, mbani në mend se kjo nuk është hera e parë, që një teknologji e re ka shkaktuar një ndryshim të madh në tregun e punës. Unë nuk mendoj se ndikimi i AI do të jetë aq dramatik sa Revolucioni Industrial, por sigurisht që do të jetë aq i madh sa prezantimi i PC. Aplikacionet e përpunimit të tekstit nuk e zhdukën punën në zyrë, por e ndryshuan atë përgjithmonë. Punëdhënësit dhe punonjësit duhej të përshtateshin, dhe e bënë. Zhvendosja e shkaktuar nga AI do të jetë një tranzicion me gunga, por ka çdo arsye për të menduar se mund të zvogëlojmë ndërprerjen në jetën dhe jetesën e njerëzve.

AI trashëgon paragjykimet tona dhe i krijon gjërat.

Halucinacionet – termi kur një AI me besim bën disa pretendime që thjesht nuk janë të vërteta – zakonisht ndodhin sepse makina nuk e kupton kontekstin për kërkesën tuaj. Kërkojini një AI të shkruajë një histori të shkurtër rreth pushimeve në Hënë dhe kjo mund t’ju japë një përgjigje shumë imagjinative. Por kërkoni që t’ju ndihmojë të planifikoni një udhëtim në Tanzani dhe mund të përpiqet t’ju dërgojë në një hotel, që nuk ekziston.

Një rrezik tjetër me inteligjencën artificiale është se ajo reflekton apo edhe përkeqëson paragjykimet ekzistuese ndaj njerëzve të identiteteve të caktuara gjinore, racave, etnive etj.

Për të kuptuar pse ndodhin halucinacionet dhe paragjykimet, është e rëndësishme të dini se si funksionojnë modelet më të zakonshme të AI sot. Ato janë në thelb versione shumë të sofistikuara të kodit, që e lejon aplikacionin tuaj të postës elektronike të parashikojë fjalën tjetër që do të shkruani: Ata skanojnë sasi të mëdha teksti – pothuajse çdo gjë të disponueshme në internet, në disa raste – dhe e analizojnë atë për të gjetur modele në gjuha njerëzore.

Kur i bëni një pyetje një AI, ai shikon fjalët që keni përdorur dhe më pas kërkon për copa teksti, që shpesh shoqërohen me ato fjalë. Nëse shkruani “rendisni përbërësit për petullat”, mund të vëreni se fjalët “miell, sheqer, kripë, pluhur pjekjeje, qumësht dhe vezë” shfaqen shpesh me atë frazë. Pastaj, bazuar në atë që di për rendin në të cilin zakonisht shfaqen ato fjalë, gjeneron një përgjigje. (Modelet e AI që funksionojnë në këtë mënyrë përdorin atë që quhet transformator. GPT-4 është një model i tillë.)

Ky proces shpjegon pse një AI mund të përjetojë halucinacione ose të duket e njëanshme. Nuk ka asnjë kontekst për pyetjet që bëni ose gjërat që i tregoni. Nëse i thoni dikujt se ka bërë një gabim, ai mund të thotë: “Më falni, e kam shkruar gabim“. Por ky është një halucinacion – nuk shkruante asgjë. Ai thotë vetëm se ka skanuar mjaft tekst për të ditur se “Më falni, e shkrova gabim” është një fjali që njerëzit e shkruajnë shpesh, pasi dikush i korrigjon.

Në mënyrë të ngjashme, modelet e AI trashëgojnë çfarëdo paragjykimi të futur në tekstin mbi të cilin janë trajnuar. Nëse dikush lexon shumë, le të themi, për mjekët, dhe teksti përmend kryesisht mjekët meshkuj, atëherë përgjigjet e tij do të supozojnë se shumica e mjekëve janë burra.

Megjithëse disa studiues mendojnë se halucinacionet janë një problem i qenësishëm, unë nuk jam dakord. Unë jam optimist që, me kalimin e kohës, modelet e AI mund të mësohen të dallojnë faktin nga trillimi. OpenAI, për shembull, po bën punë premtuese në këtë front.

Organizata të tjera, duke përfshirë Institutin Alan Turing dhe Institutin Kombëtar të Standardeve dhe Teknologjisë, po punojnë për problemin e paragjykimeve. Një qasje është ndërtimi i vlerave njerëzore dhe arsyetimi i nivelit më të lartë në AI. Është analoge me mënyrën se si funksionon një njeri i vetëdijshëm: Ndoshta ju supozoni se shumica e mjekëve janë burra, por ju jeni mjaft të vetëdijshëm për këtë supozim për të ditur se ju duhet ta luftoni qëllimisht atë. AI mund të funksionojë në një mënyrë të ngjashme, veçanërisht nëse modelet janë të dizajnuara nga njerëz me prejardhje të ndryshme.

Së fundi, kushdo që përdor AI duhet të jetë i vetëdijshëm për problemin e paragjykimit dhe të bëhet një përdorues i informuar. Eseja që kërkoni nga një AI të hartojë mund të jetë po aq e mbushur me paragjykime sa edhe me gabime faktike. Ju do të duhet të kontrolloni paragjykimet e AI-së tuaj, si dhe tuajat.

Studentët nuk do të mësojnë të shkruajnë, sepse AI do të bëjë punën për ta.

Shumë mësues janë të shqetësuar për mënyrat, në të cilat AI do të minojë punën e tyre me studentët. Në një kohë kur çdokush me akses në internet mund të përdorë AI për të shkruar një draft të parë të respektueshëm të një eseje, çfarë do t’i pengojë studentët ta kthejnë atë si punë të tyre?

Tashmë ka mjete të AI që po mësojnë të tregojnë nëse diçka është shkruar nga një person apo nga një kompjuter, kështu që mësuesit mund të tregojnë kur studentët e tyre nuk po bëjnë punën e tyre. Por disa mësues nuk po përpiqen t’i ndalojnë studentët e tyre të përdorin AI në shkrimet e tyre – ata në fakt po e inkurajojnë atë.

Në janar, një mësuese veterane e anglishtes e quajtur Cherie Shields shkroi një artikull në Education Week për mënyrën se si ajo përdor ChatGPT në klasën e saj. Ajo i ka ndihmuar studentët e saj me gjithçka, nga fillimi i një eseje te shkrimi i skicave dhe madje edhe dhënia e komenteve për punën e tyre.

Mësuesit do të duhet të përqafojnë teknologjinë AI si një mjet tjetër në të cilin studentët kanë akses”, shkroi ajo. “Ashtu si dikur i mësonim studentët se si të bënin një kërkim të duhur në Google, mësuesit duhet të hartojnë mësime të qarta rreth mënyrës se si roboti ChatGPT mund të ndihmojë me shkrimin e esesë. Pranimi i ekzistencës së AI dhe ndihma e studentëve për të punuar me të mund të revolucionarizojë mënyrën se si ne mësojmë.” Jo çdo mësues ka kohë për të mësuar dhe përdorur një mjet të ri, por edukatorë si Cherie Shields bëjnë një argument të mirë se ata që e bëjnë do të përfitojnë shumë.

Më kujton kohën kur makinat llogaritëse elektronike u përhapën gjerësisht në vitet 1970 dhe 1980. Disa mësues matematike shqetësoheshin se studentët do të ndalonin së mësuari se si të bënin aritmetikën bazë, por të tjerë përqafuan teknologjinë e re dhe u fokusuan në aftësitë e të menduarit pas aritmetikës.

Ekziston një mënyrë tjetër, që AI mund të ndihmojë me shkrimin dhe të menduarit kritik. Sidomos në këto ditë të hershme, kur halucinacionet dhe paragjykimet janë ende një problem, edukatorët mund të kërkojnë që AI të gjenerojë artikuj dhe më pas të punojnë me studentët e tyre për të kontrolluar faktet. Organizatat jofitimprurëse të arsimit si Khan Academy dhe OER Project, të cilat unë i financoj, u ofrojnë mësuesve dhe studentëve mjete falas në internet që vënë një theks të madh në testimin e pohimeve. Pak aftësi janë më të rëndësishme sesa të dish të dallosh atë që është e vërtetë nga ajo që është e rreme.

Ne duhet të sigurohemi që softueri arsimor të ndihmojë në mbylljen e hendekut të arritjeve, në vend që ta përkeqësojë atë. Softueri i sotëm është kryesisht i orientuar drejt fuqizimit të studentëve që tashmë janë të motivuar. Mund të zhvillojë një plan studimi për ju, t’ju drejtojë drejt burimeve të mira dhe të testojë njohuritë tuaja. Por nuk di ende se si t’ju tërheqë në një lëndë për të cilën nuk jeni tashmë të interesuar. Ky është një problem që zhvilluesit duhet ta zgjidhin në mënyrë që studentët e të gjitha llojeve të mund të përfitojnë nga AI.

Ç’pritet më tej?

Unë besoj se ka më shumë arsye sesa të mos jemi optimistë se ne mund të menaxhojmë rreziqet e AI, duke maksimizuar përfitimet e tyre. Por ne duhet të lëvizim shpejt.

Qeveritë duhet të krijojnë ekspertizë në inteligjencën artificiale, në mënyrë që të mund të bëjnë ligje dhe rregullore të informuara që i përgjigjen kësaj teknologjie të re. Ata do të duhet të përballen me dezinformatat dhe falsifikimet, kërcënimet e sigurisë, ndryshimet në tregun e punës dhe ndikimin në arsim. Për të përmendur vetëm një shembull: Ligji duhet të jetë i qartë se cilat përdorime të deepfakes janë të ligjshme dhe se si duhet të etiketohen deepfakes, në mënyrë që të gjithë të kuptojnë kur diçka që po shohin ose dëgjojnë nuk është e vërtetë.

Udhëheqësit politikë do të duhet të pajisen për të pasur një dialog të informuar dhe të menduar me votuesit e tyre. Ata gjithashtu do të duhet të vendosin se sa do të bashkëpunojnë me vendet e tjera për këto çështje, në vend që të shkojnë vetëm.

Në sektorin privat, kompanitë e AI duhet të ndjekin punën e tyre në mënyrë të sigurt dhe me përgjegjësi. Kjo përfshin mbrojtjen e privatësisë së njerëzve, sigurimin që modelet e tyre të inteligjencës artificiale të pasqyrojnë vlerat themelore njerëzore, minimizimin e paragjykimeve, përhapjen e përfitimeve për sa më shumë njerëz të jetë e mundur dhe parandalimin e përdorimit të teknologjisë nga kriminelët ose terroristët. Kompanitë në shumë sektorë të ekonomisë do të duhet të ndihmojnë punonjësit e tyre të bëjnë kalimin në një vend pune të përqendruar në AI, në mënyrë që askush të mos mbetet pas. Dhe klientët duhet të dinë gjithmonë kur janë duke ndërvepruar me një AI dhe jo me një njeri.

Së fundi, i inkurajoj të gjithë që të ndjekin sa më shumë zhvillimet në AI. Është inovacioni më transformues, që secili prej nesh do të shohë në jetën tonë dhe një debat i shëndetshëm publik do të varet nga njohja e të gjithëve për teknologjinë, përfitimet dhe rreziqet e saj. Përfitimet do të jenë masive dhe arsyeja më e mirë për të besuar se mund të menaxhojmë rreziqet është se e kemi bërë më parë.

K O M E N T E

Ju lutem, shkruaJ komentin tuaj!
Ju lutem, shkruaJ emrin tuaj këtu

Kjo uebfaqe përdor Akismet, për të ulur spam. Mëso se si procesohen të dhënat e komentit tuaj.