Krijuesi i ChatGPT OpenAI ka paraqitur një plan për të parandaluar përdorimin e mjeteve të tij për përhapjen e dezinformatave zgjedhore, në kohën që më shumë se 50 vende përgatiten të hedhin votën e tyre në zgjedhjet kombëtare të këtij viti.
Masat mbrojtëse të përcaktuara nga startup-i i inteligjencës artificiale me bazë në San Francisko në një postim në blog këtë javë, përfshijnë një përzierje të politikave paraekzistuese dhe iniciativave më të reja për të parandaluar keqpërdorimin e mjeteve të tij gjeneruese jashtëzakonisht të njohura të AI.
Ata mund të krijojnë tekst dhe imazhe të reja në sekonda, por gjithashtu mund të përdoren për të sajuar mesazhe mashtruese ose fotografi të rreme të besueshme.
Masat do të zbatohen posaçërisht për OpenAI, që është vetëm një lojtar në një univers në zgjerim të kompanive që po zhvillojnë mjete të avancuara gjeneruese të AI.
Kompania tha se planifikon të “vazhdojë punën e sigurisë së platformës duke ngritur informacionin e saktë të votimit, duke zbatuar politika të matura dhe duke përmirësuar transparencën”.
Ai tha se do t’i ndalojë njerëzit të përdorin teknologjinë e tij për të krijuar chatbot që imitojnë kandidatët ose qeveritë reale, për të keqinterpretuar se si funksionon votimi ose për të dekurajuar njerëzit që të votojnë.
Ai tha se derisa të mund të bëhen më shumë kërkime mbi fuqinë bindëse të teknologjisë, platforma nuk do t’i lejojë përdoruesit e saj të ndërtojnë aplikacione për qëllime të fushatës politike ose lobimit.
Duke filluar “në fillim të këtij viti”, tha OpenAI, do të vulosen në mënyrë digjitale imazhet e AI të krijuara duke përdorur gjeneratorin e saj të imazhit DALL-E.
Kjo do ta shënojë përgjithmonë përmbajtjen me informacione rreth origjinës së saj, duke e bërë më të lehtë identifikimin nëse një imazh që shfaqet diku tjetër në ueb është krijuar duke përdorur mjetin AI.
Kompania tha gjithashtu se është në partneritet me Shoqatën Kombëtare të Sekretarëve të Shtetit për të drejtuar përdoruesit e ChatGPT që bëjnë pyetje logjistike në lidhje me votimin drejt informacionit të saktë në faqen e internetit jopartiake të atij grupi, CanIVote.org.
Mekela Panditharatne, këshilltare në programin e demokracisë në Qendrën Brennan për Drejtësinë, tha se planet e OpenAI janë një hap pozitiv drejt luftimit të dezinformatave zgjedhore, por do të varet nga mënyra se si ato zbatohen.
“Për shembull, sa shteruese dhe gjithëpërfshirëse do të jenë filtrat kur shënoni pyetje rreth procesit zgjedhor?”, pyeti ajo. “A do të ketë sende që rrëshqasin nëpër të çara?”
ChatGPT dhe DALL-E i OpenAI janë disa nga mjetet më të fuqishme gjeneruese të AI deri më sot. Por ka shumë kompani me teknologji të ngjashme të sofistikuar që nuk kanë aq masa mbrojtëse për dezinformimin e zgjedhjeve.
Ndërsa disa kompani të mediave sociale, si YouTube dhe Meta, kanë prezantuar politika të etiketimit të AI, mbetet për t’u parë nëse ato do të jenë në gjendje të kapin vazhdimisht shkelësit.
“Do të ishte e dobishme nëse firmat e tjera gjeneruese të AI do të miratonin udhëzime të ngjashme, në mënyrë që të mund të kishte zbatim të rregullave praktike në mbarë industrinë,” tha Darrell West, bashkëpunëtor i lartë në Qendrën për Inovacionin Teknologjik të Institutit Brooking.
Pa miratimin vullnetar të politikave të tilla në të gjithë industrinë, rregullimi i dezinformatave të krijuara nga AI në politikë do të kërkonte legjislacion.
Në SHBA, Kongresi ende nuk ka miratuar legjislacionin që kërkon të rregullojë rolin e industrisë në politikë, pavarësisht nga disa mbështetje dypartiake.
Ndërkohë, më shumë se një e treata e shteteve amerikane kanë miratuar ose prezantuar projektligje për të adresuar falsifikimet e thella në fushatat politike.
CEO i OpenAI Sam Altman tha se edhe me të gjitha masat mbrojtëse të kompanisë së tij në fuqi, prap nuk është e lehtë.
“Unë mendoj se është mirë që kemi shumë ankth dhe do të bëjmë gjithçka që mundemi për ta bërë atë sa më mirë që mundemi,” tha ai gjatë një interviste në një ngjarje të Bloomberg gjatë Forumit Ekonomik Botëror në Davos, Zvicër /rtsh.al