ایک رپورٹ کے مطابق، برطانیہ کو مصنوعی ذہانت کے غلط استعمال اور خرابیوں کو ریکارڈ کرنے کے لیے ایک نظام کی ضرورت ہے یا وزراء کو ٹیکنالوجی سے متعلق خطرناک واقعات سے لاعلم رہنے کا خطرہ ہے۔
سنٹر فار لانگ ٹرم ریزیلینس (CLTR)، ایک تھنک ٹینک نے کہا کہ اگلی حکومت کو عوامی خدمات میں AI سے متعلق واقعات کی لاگنگ کے لیے ایک نظام بنانا چاہیے اور پورے برطانیہ میں AI سے متعلقہ اقساط کو اکٹھا کرنے کے لیے ایک مرکزی مرکز بنانے پر غور کرنا چاہیے۔
CLTR، جو کہ غیر متوقع بحرانوں اور انتہائی خطرات کے بارے میں حکومتی ردعمل پر توجہ مرکوز کرتا ہے، نے کہا کہ وقوعہ کی رپورٹنگ کا نظام جیسا کہ ایئر ایکسیڈنٹ انویسٹی گیشن برانچ (AAIB) کے ذریعے چلایا جانے والا نظام ٹیکنالوجی کو کامیابی سے استعمال کرنے کے لیے بہت ضروری ہے۔
رپورٹ میں 2014 سے لے کر اب تک نیوز آؤٹ لیٹس کے ذریعے ریکارڈ کیے گئے 10,000 AI “حفاظتی واقعات” کا حوالہ دیا گیا ہے، جو ایک بین الاقوامی تحقیقی ادارے، آرگنائزیشن فار اکنامک کوآپریشن اینڈ ڈیولپمنٹ کے مرتب کردہ ڈیٹا بیس میں درج ہیں۔ نقصان دہ AI واقعے کی OECD کی تعریف جسمانی نقصان سے لے کر معاشی، نامور اور نفسیاتی نقصانات تک ہے۔
OECD کے AI سیفٹی ایونٹ مانیٹر پر لاگ ان مثالوں میں لیبر لیڈر کیئر سٹارمر کی ڈیپ فیک، مبینہ طور پر پارٹی کے عملے کے ساتھ بدسلوکی، گوگل کا جیمنی ماڈل جس میں جرمن دوسری جنگ عظیم کے سپاہیوں کو رنگین لوگوں کے طور پر پیش کیا گیا، خود گاڑی چلانے والے واقعات اور ایک آدمی شامل ہیں۔ جس نے چیٹ بوٹ سے حوصلہ افزائی کرنے والی مرحوم ملکہ کو قتل کرنے کا منصوبہ بنایا۔
“واقعہ کی رپورٹنگ نے حفاظتی اہم صنعتوں جیسے ہوا بازی اور ادویات میں خطرات کو کم کرنے اور ان کے انتظام میں ایک تبدیلی کا کردار ادا کیا ہے۔ لیکن یہ AI کے لیے تیار کیے جانے والے ریگولیٹری زمین کی تزئین سے بڑی حد تک غائب ہے۔ CLTR کے پالیسی مینیجر اور رپورٹ کے مصنف ٹومی شیفر شین نے کہا کہ یہ برطانیہ کی حکومت کو ان واقعات سے اندھا کر رہا ہے جو AI کے استعمال سے پیدا ہو رہے ہیں، جو اس کے جواب دینے کی صلاحیت کو روک رہے ہیں۔
سی ایل ٹی آر نے کہا کہ برطانیہ کی حکومت کو ان صنعتوں کی مثال کی پیروی کرنی چاہیے جہاں حفاظت ایک اہم مسئلہ ہے، جیسے ہوا بازی اور ادویات میں، اور “اچھی طرح سے کام کرنے والے واقعات کی رپورٹنگ نظام” متعارف کرانا چاہیے۔ CLTR نے کہا کہ AI کے بہت سے واقعات کا شاید UK کے واچ ڈاگس کے ذریعے احاطہ نہیں کیا جائے گا کیونکہ وہاں کوئی ریگولیٹر نہیں تھا جو جدید ترین AI سسٹمز جیسے کہ چیٹ بوٹس اور امیج جنریٹرز پر مرکوز ہو۔ لیبر نے جدید ترین AI کمپنیوں کے لیے بائنڈنگ ریگولیشن متعارف کرانے کا عہد کیا ہے۔
تھنک ٹینک نے کہا کہ اس طرح کا سیٹ اپ فوری بصیرت فراہم کرے گا کہ AI کس طرح غلط ہو رہا ہے، اور حکومت کو مستقبل میں اسی طرح کے واقعات کا اندازہ لگانے میں مدد ملے گی۔ اس نے مزید کہا کہ واقعے کی رپورٹنگ سنگین واقعات کے ردعمل کو مربوط کرنے میں مدد کرے گی جہاں ردعمل کی رفتار بہت اہم ہے اور مستقبل میں ہونے والے بڑے پیمانے پر نقصانات کی ابتدائی علامات کی نشاندہی کرے گی۔
برطانیہ کے AI سیفٹی انسٹی ٹیوٹ کی طرف سے ٹیسٹ کیے جانے کے باوجود، کچھ ماڈلز مکمل طور پر جاری ہونے کے بعد ہی نقصانات ظاہر کر سکتے ہیں، واقعے کی رپورٹنگ کم از کم حکومت کو یہ دیکھنے کی اجازت دیتی ہے کہ ملک کا ریگولیٹری سیٹ اپ ان خطرات سے کتنی اچھی طرح نمٹ رہا ہے۔
CLTR نے کہا کہ محکمہ برائے سائنس، اختراع اور ٹیکنالوجی (DSIT) کو AI سسٹمز کے غلط استعمال کی تازہ ترین تصویر کی کمی کا خطرہ ہے جیسے کہ ڈس انفارمیشن مہم، بائیو ویپنز کی ترقی کی کوشش، AI سسٹم میں تعصب یا عوامی خدمات میں AI کا غلط استعمال، جیسے نیدرلینڈ میں جہاں ٹیکس حکام نے فوائد کے فراڈ سے نمٹنے کی گمراہ کن کوشش میں AI پروگرام کی تعیناتی کے بعد ہزاروں خاندانوں کو مالی پریشانی میں ڈال دیا۔
رپورٹ میں کہا گیا، “DSIT کو اس بات کو یقینی بنانا چاہیے کہ حکومت برطانیہ کو اس طرح کے نئے نقصان کے بارے میں خبروں کے ذریعے نہیں، بلکہ واقعے کی رپورٹنگ کے ثابت شدہ عمل کے ذریعے پتہ چلے”۔