AI poate deja să citească mințile. Trebuie să fim conștienți de riscuri

AI poate deja să citească mințile.  Trebuie să fim conștienți de riscuri

Plecarea „nașului inteligenței artificiale” nu anticipează rolul mașinilor în viitorul nostru, dar este un avertisment important. Astăzi este momentul să începem să acționăm și să mobilizăm atât umanitatea, cât și fiecare persoană în parte, astfel încât viziunile teribile cunoscute din scenariile filmelor și cărților științifico-fantastice să nu devină realitate. – spune dr. Salon 24 Piotr Łuczuk, expert media, expert în domeniul securității cibernetice, Universitatea Cardinal Stefan Wyszyński.

La mijlocul lunii aprilie am vorbit despre inteligența artificială. M-a liniștit, de fapt, că pericolul ca roboții să preia puterea este exagerat. Depinde de noi să decidem în ce direcție merg lucrurile. A trecut mai puțin de o lună și au avut loc mai multe evenimente tulburătoare. În primul rând, Jeffrey Hinton, pionierul în crearea inteligenței artificiale, a părăsit Google. Pur și simplu a spus că îi pare rău pentru ceea ce a făcut. Îți schimbă abordarea asupra problemei?

Dr. Pyotr Gotczuk: Jeffrey Hinton este, fără îndoială, o figură importantă și este menționat ca nașul inteligenței artificiale. Cu toate acestea, decizia sa nu are nicio influență asupra percepției rolului mașinilor în viitorul umanității într-o perspectivă mai largă. Este doar un avertisment puternic. El spune că oamenii care au fost la un moment dat complet fascinați de inovațiile tehnologice, în special de dezvoltarea roboticii și a inteligenței artificiale, ar fi trebuit să fie conștienți de direcția în care va merge această dezvoltare și se pare că au dobândit această conștientizare prea târziu. În cursul cercetării în domeniul inteligenței artificiale, dintr-o dată mulți oameni fac acum o schimbare drastică. Creatorii Internetului nu au regretat că au investit în dezvoltarea acestuia. La fel este și cu inteligența artificială. Mi se pare că în decenii vom vorbi despre inteligența artificială așa cum vorbim sau gândim la internet astăzi. Cu toate acestea, după părerea mea, aceste temeri isterice alimentate de mass-media sunt exagerate. Pentru că vorbim de multă vreme despre AI și cred că toți o supraestimăm puțin. Doar informații uimitoare pătrund în conștiința socială. Ori rău, ori oribil.

sens?

Există chiar rapoarte că robotul Sophia a obținut cetățenia saudită. Apariția termenului de personalitate electronică, se ține cont de introducerea unor reguli juridice, etice și morale care se aplică acestui tip de indivizi.

Și sincer, acest lucru este foarte enervant.

De fapt, avem o mare posibilitate de ofensare aici. Ceea ce i-a atras atenția lui Isaac Asimov cu ani în urmă, cu zeci de ani în urmă în cărțile sale, când a formulat aceste celebre legi ale roboticii, au fost trei, mai târziu a adăugat așa-numita lege zero, care trebuia să protejeze omenirea de rebeliunea mașinilor, împotriva a tot felul de consecințe ale roboților. Există diferite tipuri de abuz sau efecte secundare ocazionale ale interacțiunii om-mașină. Cu toate acestea, curând a devenit clar că aceasta era mai degrabă literatură științifică populară, decât știința reală. Viața a scris scenarii complet diferite. Și mașinile se revoltă, iar mașinile preia puterea – cel puțin în acest moment – este puțin probabil. Dar există și alte pericole care ar fi putut fi în mintea lui Geoffrey Hinton.

READ  O sărbătoare pentru iubitorii stilului gotic și o perlă poloneză la noul Humble Choice [Aktualizacja]

De exemplu?

Poate exista o situație în care oamenii lasă robotului să decidă dacă să salveze în primul rând viața unei persoane în vârstă, care are multă experiență și care poate contribui la societate cu acea experiență sau viața unui copil care are o viață plină în față dar care este și necunoscut. Botul va lua această decizie pe bază binară. Decizia lui va fi zero, nu se va lăsa ghidat de sentimente și emoții, dacă cunoaște persoana sau nu, dacă o iubește și o apreciază sau nu. Și aici intrăm în nuanțe, ajungem la momentul în care creatorii AI și-au dat seama cât de mult poate face AI. Cu cât mai mult pot realiza, dar probabil că sunt mai conștienți de numărul de amenințări asociate dezvoltării sale ulterioare, dacă nu este plasat într-un cadru strict formal, legal, moral și etic. Și aceasta este acum o provocare pentru următorii ani, nici măcar decenii, ci pentru anii următori. Ideea este că creăm standarde morale, etice și legale pe care AI le va folosi. Robotul însuși, proprietarul său, producătorul său sau cineva care a făcut, să zicem, întreținere proastă, va fi răspunzător pentru orice accidente cauzate de robot?

Sau poate că această responsabilitate este încețoșată, ca în cazul rețelelor sociale, unde o femeie americană mare și liberă domnește deja supremă. Nimeni nu poartă această responsabilitate personală. Desigur, poți încerca, pe jumătate în glumă, să te conectezi la Facebook și să suni la poliție de acolo. Dar, de fapt, dacă contul cuiva a fost interzis, sau un anumit conținut a fost eliminat, sau monetizarea sau accesul sunt foarte limitate, acest argument este practic de nevins. Nu putem să ne aplicăm drepturile și obligațiile, deși există astfel de prevederi în Regulamente. În cazul rețelelor sociale, momentul organizării corecte a acestora a fost dincolo de somn. Sper că nu vom dormi acest moment în contextul roboților din casele noastre, în contextul inteligenței artificiale. Desigur, nu pot decât să reiterez aici că roboții sunt în jurul nostru de ani de zile, sunt în jurul nostru, în casele noastre, de exemplu lămpi fotovoltaice care recunosc dacă o persoană apare în raza de acțiune și apoi aprinde lumina, sau un animal – atunci nu se aprinde. Cu toate acestea, este puțin diferit cu inteligența artificială, deoarece este un set larg înțeles de diferite tipuri de algoritmi care folosesc mecanismul de învățare automată, iar un exemplu atât de bun de interacțiune umană cu inteligența artificială este fenomenul chatbot-urilor, adică un mecanism. care este folosit pentru comunicare, pentru conversație.

READ  Corsair oferă kituri Vengeance DDR5 și Vengeance RGB DDR5. Module RAM în pachete de până la 192 GB

Chatbot-ii lui Hinton i s-au părut enervanti. El a spus că algoritmii nu sunt la fel de inteligenți ca noi acum, dar este doar o chestiune de timp?

Voi da două exemple. Pozitiv – S-a dovedit științific că un chatbot, care vorbește cu pacienții pe teme medicale, este mai empatic decât un medic care intervievează un pacient. Doar că această simpatie nu este nicidecum o consecință a evoluției, a dezvoltării spirituale a unei mașini, ci este construită în sistem, proiectată. Trebuie doar să se comporte într-un mod care să facă plăcut să vorbești cu el. Al doilea caz este la fel de interesant, dar foarte enervant. Pentru prima dată, a fost raportată, în principiu, o descoperire majoră sau un succes în comunicarea intelectuală. Lucrarea a continuat mult timp. Dar în această săptămână au existat informații oficiale și un articol științific despre asta. Pentru prima dată la o scară atât de mare, a fost posibil să se obțină o repetabilitate foarte mare și o precizie ridicată în citirea gândurilor umane de către un robot. Aparatul a scanat undele cerebrale și a putut interpreta ceea ce gândea persoana respectivă. Dacă cineva se uita la televizor sau la un film, robotul era capabil să ghicească sau să citească conținutul acestor imagini care au fost afișate. Desigur, traducerea gândurilor robotului nu a fost corectă individual, dar a fost bine surprinsă. Acesta este un fel de hack.

Un hack terifiant ca să spun cel puțin. Dacă un robot citește gândurile pe baza scanărilor noastre ale creierului, nici nu ar conta dacă devine independent sau câștigă afecțiune, depășind oamenii. Este suficient ca această tehnologie să cadă în mâini greșite și să fie folosită pentru a construi un regim totalitar. Nu va fi nevoie de informatori, pentru că se va putea citi gândurile societății?

Într-adevăr, există teama că atât roboții, cât și inteligența artificială nu vor servi umanității larg înțelese, ci vor începe să fie utilizate de anumite grupuri sau grupuri de oameni, într-o formă oarecare. Aceasta este o amenințare foarte mare. Ele au fost descrise în literatură și au fost prezise, ​​de exemplu, de Philip K. au în „raport minoritar”. Fratele cel mare al prozei lui Orwell… Deci scenariile sunt descrise, întrebarea este dacă am învățat din ele. Așa cum am spus, cea mai importantă discuție care urmează este modul în care putem dezvolta reglementări prudente, datorită cărora, pe de o parte, nu vom arunca copilul cu apa din baie când vine vorba de reglementări privind IA și robotică. Nu ne vom despărți de dezvoltarea civilizației și nu ne vom lipsi de roboți, roboți și inteligență artificială, ceea ce este o mare oportunitate. Dar pur și simplu le vom adapta într-un fel munca și vom face aceste soluții suficient de sigure, astfel încât umanitatea să poată lucra pur și simplu, să profite de dezvoltarea noilor tehnologii și să nu fie nevoită să tremure de frica amenințărilor.

Pe canalul de sport de pe YouTube au apărut recent programe despre inteligența artificială. Acolo, unul dintre invitați a spus un lucru înfricoșător că pericolul pentru umanitate din cauza inteligenței artificiale este de 10%. Este chiar mult…

READ  Ferestrele vor fi mai puțin aglomerate, dacă asta doriți

Nimeni nu ne va elibera cu o atingere de baghetă magică de această amenințare, este reală și nu va dispărea. Ceea ce contează este cum ne descurcăm cu asta. În primul rând, ceea ce este important este că nu există șanse de 10% ca roboții să cuprindă lumea. Aceste 10 la sută includ utilizarea dezvoltării tehnologiei de către grupuri criminale și regimuri totalitare, dar și probleme legate de șomaj, privarea oamenilor de locuri de muncă în favoarea roboților. Din fericire, aici se acordă din ce în ce mai multă atenție faptului că atunci când locurile de muncă sunt eliminate și oamenii sunt înlocuiți cu mașini, vor apărea oportunități de angajare cu totul noi. Liniile de producție au fost, de asemenea, un fel de descoperire, revoluția industrială. Dacă strămoșii noștri au negat de fiecare dată progresul, cred că astăzi nu ne vom bucura de soluții tehnologice precum mașinile, computerele, sau internetul și roboții deja amintiți. Deci, de fapt, conștientizarea și bunul simț sunt capabile să ne salveze de vreo „catastrofă mașină”.

Cu toate acestea, atunci când asculți mașini de citire a minții, este greu să fii optimist?

Motivul optimismului este că avem previziuni foarte bune, scenarii detaliate despre ceea ce ar putea merge prost. Datorită acestui fapt, nu trebuie să învățăm din greșeli, deoarece descrierea acestor erori este practic la îndemâna noastră. Și voi repet că astăzi este momentul să începem să actorim și să mobilizăm atât umanitatea, cât și fiecare persoană în parte, pentru ca viziunile groaznice cunoscute din scenariile filmelor și cărților științifico-fantastice să nu devină realitate.

a vorbit Przemyslaw Harczuk

Citeste si:

Dius Fidus

"Fanatic pe tot parcursul vieții. Cititor devotat. Jucător. Antreprenor extrem."

Related Posts

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Read also x