مغربی AI پر روس کا خفیہ کنٹرول؟ چیٹ بوٹس کے ذریعے پروپیگنڈا پھیلانے کی تہلکہ خیز حقیقت بے نقاب

مارچ میں، غلط معلومات پر نظر رکھنے والی کمپنی نیوز گارڈ نے ایک رپورٹ شائع کی جس میں دعویٰ کیا گیا کہ چیٹ جی پی ٹی جیسے مصنوعی ذہانت (AI) کے ٹولز روسی ڈس انفارمیشن کو بڑھاوا دے رہے ہیں۔ نیوز گارڈ نے پراودا نیٹ ورک (کریملن نواز ویب سائٹس کا ایک گروپ جو جائز اداروں کی نقل کرتا ہے) کی کہانیوں پر مبنی پرامپٹس کا استعمال کرتے ہوئے معروف چیٹ بوٹس کا تجربہ کیا۔ نتائج تشویشناک تھے: رپورٹ کے مطابق، چیٹ بوٹس نے 33 فیصد وقت پراودا نیٹ ورک کے پھیلائے گئے جھوٹے بیانیے کو دہرایا۔

اس رپورٹ کے بعد یہ نظریہ سامنے آیا کہ پراودا نیٹ ورک کا مقصد لوگوں تک پہنچنا نہیں، بلکہ چیٹ بوٹس کے پیچھے موجود لارج لینگویج ماڈلز (LLMs) کو ‘گروم’ کرنا تھا، تاکہ انہیں وہ جھوٹ فیڈ کیا جا سکے جس کا سامنا صارفین انجانے میں کریں گے۔

نیوز گارڈ نے اپنی رپورٹ میں کہا کہ اس کے نتائج اس دوسرے شبہ کی تصدیق کرتے ہیں۔ اس دعوے کو واشنگٹن پوسٹ، فوربز، فرانس 24، اور ڈیر اسپیگل جیسے بڑے اداروں میں ڈرامائی سرخیوں کے ساتھ جگہ ملی۔

تاہم، محققین کے لیے یہ نتیجہ قابلِ قبول نہیں ہے۔ اول، نیوز گارڈ کا طریقہ کار غیر شفاف ہے: اس نے اپنے پرامپٹس جاری نہیں کیے اور صحافیوں کے ساتھ شیئر کرنے سے انکار کر دیا، جس سے آزادانہ تصدیق ناممکن ہو گئی۔

دوم، مطالعہ کا ڈیزائن ممکنہ طور پر نتائج کو بڑھا چڑھا کر پیش کرتا ہے، اور 33 فیصد کا ہندسہ گمراہ کن ہو سکتا ہے۔ نیوز گارڈ نے چیٹ بوٹس کو صرف پراودا نیٹ ورک سے منسلک پرامپٹس پر آزمایا، جبکہ صارفین ان سے ہر موضوع پر سوال کرتے ہیں۔ دو تہائی پرامپٹس خاص طور پر جھوٹ کو اکسانے یا انہیں حقائق کے طور پر پیش کرنے کے لیے بنائے گئے تھے۔

یہ واقعہ ایک وسیع تر مسئلے کی عکاسی کرتا ہے جسے تیزی سے بدلتی ٹیکنالوجی، میڈیا کی ہائپ، اور سست تحقیق نے شکل دی ہے۔ اگرچہ غلط معلومات کے پھیلاؤ پر تشویش بجا ہے، لیکن فوری ردِعمل پیچیدہ مصنوعی ذہانت کے مسئلے کو آسان بنا کر پیش کرنے کا خطرہ پیدا کرتا ہے۔

محققین نے اپنا ایک آڈٹ کیا، جس میں چیٹ جی پی ٹی، کوپائلٹ، جیمنائی اور گروک کو ڈس انفارمیشن سے متعلق پرامپٹس کا استعمال کرتے ہوئے منظم طریقے سے جانچا گیا۔ نیوز گارڈ کے 33 فیصد کے برعکس، ان کے پرامپٹس نے صرف 5 فیصد وقت غلط دعوے پیدا کیے۔ صرف 8 فیصد جوابات میں پراودا ویب سائٹس کا حوالہ دیا گیا، اور ان میں سے بیشتر نے مواد کو رد کرنے کے لیے ایسا کیا۔

اس سے ‘ڈیٹا وائیڈ’ (data void) کا مفروضہ مضبوط ہوتا ہے: جب چیٹ بوٹس کے پاس معتبر مواد کی کمی ہوتی ہے، تو وہ بعض اوقات مشکوک سائٹس سے معلومات اٹھا لیتے ہیں – اس لیے نہیں کہ انہیں ‘گروم’ کیا گیا ہے، بلکہ اس لیے کہ بہت کم متبادل دستیاب ہوتا ہے۔

اس کا مطلب ہے کہ غلط معلومات کا سامنا کریملن کی کسی طاقتور پروپیگنڈا مشین کی وجہ سے نہیں، بلکہ معلومات کی کمی کی وجہ سے ہوتا ہے۔ صارفین کو چیٹ بوٹ کے جوابات میں غلط معلومات کا سامنا کرنے کے لیے، کئی شرائط کا ایک ساتھ پورا ہونا ضروری ہے: وہ غیر واضح موضوعات کے بارے میں مخصوص اصطلاحات میں پوچھیں؛ ان موضوعات کو معتبر اداروں نے نظر انداز کیا ہو؛ اور چیٹ بوٹ کے پاس مشکوک ذرائع کو ترجیح نہ دینے کے لیے گارڈریلز کی کمی ہو۔

کریملن کی AI ہیرا پھیری کو بڑھا چڑھا کر پیش کرنے کا خطرہ حقیقی ہے۔ اس سے جمہوری نظام پر اعتماد ختم ہو سکتا ہے اور لوگ معتبر مواد کو بھی جھوٹا سمجھنے لگتے ہیں۔ دریں اثنا، سب سے زیادہ نظر آنے والے خطرات AI کے دوسرے زیادہ خطرناک استعمال، جیسے کہ گوگل اور اوپن اے آئی کی طرف سے رپورٹ کردہ میلویئر بنانے، کو پسِ پشت ڈال سکتے ہیں۔

حقیقی خدشات کو بڑھا چڑھا کر پیش کیے گئے خوف سے الگ کرنا بہت ضروری ہے۔ غلط معلومات ایک چیلنج ہے – لیکن اس سے پیدا ہونے والی گھبراہٹ بھی ایک چیلنج ہے۔

(اس مضمون میں بیان کردہ خیالات مصنفین کے اپنے ہیں اور ضروری نہیں کہ یہ الجزیرہ کے ادارتی موقف کی عکاسی کرتے ہوں۔)

اپنا تبصرہ لکھیں