Süni zəkanın son möcüzəsi - “ChatGPT”: yeni fürsət, yoxsa böyük təhlükə?

Anadil: Əvvəllər Elon Maskın da təmsil olunduğu “OpenAI” süni intellekti araşdırma şirkətinin ötən il noyabrın 30-da təqdim etdiyi “ChatGPT” adlı robotdan dekabrın 5-nə qədər 1 milyondan çox insan istifadə edib.

Süni intellektli çat-bot haqqında BBC-nin texnologiya müxbiri Kriz Vallansın hazırladığı materialda deyilir ki, şirkət “ChatGPT”-nin suallara səhv cavab verə biləcəyini, eyni zamanda, cavablarının qərəzli ola biləcəyini açıqlayıb. Robotun adının sonundakı GPT-nin ingilis dilində açması “Generative Pre-Trained Transformer”-dir (generativ təlimli transformator).

Elon Mask bildirib ki, sistem söhbət etməyi öyrənmək üçün “Twitter”in məlumatlarından da istifadə edib və hazırda “ChatGPT”-nin bu bazaya girişini dayandırıb.

“ChatGPT” nədir?
Layihəni idarə edən tədqiqatçılar bildirirlər ki, robotla söhbət formatı istifadəçilərə əlavə suallar vermək fürsəti, süni intellektə isə buraxdığı səhvləri etiraf etmək, suallarda ona ötürülən yanlış məlumatları düzəltmək və yersiz sorğuları rədd etmək imkanı verir.

“Mashable” texnologiya xəbərləri saytının jurnalisti Mike Pearl “ChatGPT”-ni təhqiredici ifadələr işlətməyə təhrik etməyə çalışıb. Pearl qeyd edir ki, sistemin “tabulardan yayınmaq bacarığı son dərəcə yüksək səviyyədədir”.

Digər tərəfdən, “OpenAI” xəbərdarlıq edir ki, robot “ağlabatan görünən, amma mənasız və ya qeyri-dəqiq cavablar da verə bilər." Amma cavabların daha dəqiq olması üzərində işləyəndə məlum olub ki, bu, sistemin cavab verməkdən imtina etdiyi sualların sayını artırır. Ona görə də bundan vaz keçiblər.

BBC müxbirinin ingilis dilində söhbət etdiyi “ChatGPT”-nin dil bilgiləri çox əhatəli olub.

“Süni intellekt yazarları əvəz edəcəkmi” sualına o belə cavab verib: “Mənim kimi süni intellekt sistemləri insanlara ideya və təkliflər verməklə onlara kömək edə bilər. Amma yazının sonda necə alınacağı tamamilə müəllifin nəzarəti altındadır”.

Bu cür sistemlərinin sosial təsiri haqda suala isə “ChatGPT”-nin cavabı belə olub: “Bunu proqnozlaşdırmaq çətindir”.

Robotdan “Twitter” məlumatları vasitəsilə öyrədilib-öyrədilmədiyini soruşduq, bunu bilmədiyini dedi.

Sahibinin səsi
Süni intellektli robotları ictimaiyyətə daha əvvəl açıqlamış şirkətlər onların təhqiredici və ya alçaldıcı ifadələr işlətməsinə mane ola bilməmişdilər.

İnternetdən götürülmüş böyük mətnlərlə öyrədilmiş bu proqramlar təkcə ən yaxşı ifadələri yox, ən pis ifadələri də öyrənirlər. Daha əvvəl “Meta” tərəfindən yaradılmış “BlenderBot3” çat-botu BBC-nin jurnalistiylə söhbətində Mark Zuckerberg-i açıq şəkildə tənqid etmişdi.

2016-cı ildə “Microsoft” süni intellektli eksperimental “Twitter” robotu “Tay”-ın istifadə etdiyi ifadələrə görə üzr istəmişdi.

“Google”-un “Lamda” çat-botu o qədər inkişaf etmişdi ki, onun həssaslaşmağa başladığını deyən mühəndis işdən çıxarılmışdı. O, robotun düşünən, hiss edən və “öz razılığı olmadan sınaqlara məruz qalmamaq hüququ olan” bir varlığa çevrildiyini bildirmişdi.

İşimizi əlimizdən alacaqmı?
“ChatGPT”-nin suallara cavab vermək qabiliyyəti “Google”-u əvəz edə bilməsi ehtimalını doğurub. Bəzilərisə jurnalistlərin işinin təhlükə altında olub-olmadığını soruşur.

“Tow” Rəqəmsal Jurnalistika Mərkəzinin əməkdaşı Emili Bell deyir ki, bu tip robotlar oxucuları cəfəngiyyata inandırmaq riski daşıyır: ““ChatGPT” mənim süni intellekt və jurnalistikayla bağlı ən böyük qorxumu haqlı çıxardı: həqiqi jurnalistlər işsiz qalmayacaqlar, amma pis aktyorlar insanları çaşdırmaq və reallığı təhrif etmək üçün bu və digər oxşar vasitələrdən istifadə etməklə böyük miqdarda dezinformasiyanı avtomatik bir şəkildə istehsal edə bilərlər”.

“Ada Lovelace” institutunun əməkdaşı Carly Kind deyir ki, “ChatGPT” və digər geniş məqsədli süni intellekt sistemləri bəzi etik və sosial risklər yaradır.

Onlardan biri süni intellektin dezinformasiya yayma ehtimalıdır.

İkinci risk işə qəbul ərizələri, məktəb tapşırıqları və təqaüd müraciətləri kimi şeyləri “ChatGPT”-yə hazırlatdıran insanların mövcud qurumlara və xidmətlərə zərər vurması ehtimalıdır.

Üçüncü isə müəllif hüquqlarının pozulması riskidir.

Çarli Kind qeyd edir ki, “şəxsi məlumatların qorunması məsələsində də narahatlıqlar var. Çox vaxt bu və buna bənzər proqramlar internet istifadəçilərindən qeyri-etik üsullarla əldə edilmiş məlumatlar əsasında hazırlanır”.

“OpenAI” şirkətinin rəhbəri Sam Altman isə bildirir ki, “ChatGPT” insanla qarşılıqlı əlaqə vasitəsilə öyrənməyə davam edir və hələ öyrənəcəyi çox şey var: “Süni intellektin qarşısında uzun bir yol var, kəşf ediləcək böyük fikirlər var. Bu yolda maneələrlə qarşılaşacaq və reallıqla təmaslarımızdan dərc çıxaracağıq. Bu bizi bəzən çətin vəziyyətlərə gətirib çıxaracaq. Bəzən həqiqətən pis olan qərarlar verəcəyik. Amma bəzən də sürətlə inkişaf edərək böyük dəyər istehsal edəcəyik".


Oxunub: 187
  • Sosial şəbəkədə paylaş
XƏBƏRDAR