Getty Images
’مصنوعی ذہانت کی دنیا میں کچھ ناقابل یقین ہو رہا ہے، اور یہ سب کچھ اچھا نہیں ہے۔‘ یہ پیش گوئی کچھ عرصہ قبل مصنوعی ذہانت کے بارے میں آواز اٹھانے والے گیری مارکس نے کی تھی۔
ان کی رائے میں ’چیٹ جی ٹی پی‘ کا آغاز ہمیں مشینوں کے ’جراسک پارک موومنٹ‘ پر لے جا سکتا ہے۔۔ یعنی جب سٹیون سپیلبرگ کی فلم میں ڈائنو سارز کی صورتحال قابو سے باہر ہوتی دکھائی گئی تھی۔
گیری مارکس نے بی بی سی کو انٹرویو دیتے ہوئے کہا کہ ’جب میں نے یہ مضمون لکھا تو مجھے لگا کہ لوگوں نے سوچا ہو گا کہ میں پاگل ہو گیا ہوں یا غیر ضروری طور پر پریشان کر دینے والی خبریں بڑھا چڑھا کر پیش کر رہا ہوں۔‘
لیکن 2023 میں مصنوعی ذہانت کے ساتھ سنگین مسائل نے جنم لینا شروع کیا۔ مارچ میں بیلجیئم میں چائے کمپنی کے ایلیزا چیٹ بوٹ کے ساتھ اکثر بات کرنے والے شخص نے خودکشی کر لی تھی۔
چیٹ بوٹ کے ذریعے ’قتل‘Getty Images
اس شخص کی بیوی کا کہنا ہے کہ پروگرام کے ساتھ رابطے نے اسے اپنی جان لینے پر مجبور کیا، اور بیلجیئم کی حکومت کے لیے یہ معاملہ ’ایک ایسی نظیر ہے جسے سنجیدگی سے لیا جانا چاہیے‘ اور مصنوعی ذہانت کے استعمال کا خطرہ ایک حقیقت ہے جس کے لیے غور کرنا از حد ضروری ہے۔
یہ ایک ممکنہ منظر نامہ تھا جس کو چھ ماہ قبل گیری مارکس نے ’وائرڈ‘ میگزین کے ایک مضمون میں لکھا تھا: ’شاید ایک چیٹ بوٹ کسی کو اتنا گہرا نقصان پہنچائے گا کہ وہ شخص اپنی زندگی ختم کرنے پر مجبور ہو جائے گا اور یوں چیٹ بوٹ کے ذریعے اپنے آپ کو قتل کر دے گا۔‘
گیری مارکس کے مطابق ’میرے خیال میں یہ نظام بہت تباہ کن ہو سکتے ہیں۔ اور تباہ کن صلاحیت کی ایک وجہ یہ ہے کہ وہ ناقابل اعتبار ہیں۔ یہ پروگرام کچھ بنا سکتے ہیں اور صارف کو بتا سکتے ہیں کہ یہ ایک حقیقت ہے۔‘
’ہمارے پاس اب جو مصنوعی ذہانت کے سسٹم موجود ہیں ان پر ہمارا اچھی طرح سے کنٹرول نہیں ہے۔ یہ اب بھی کوئی خوفناک صورتحال نہیں ہے، لیکن لوگ انھیں زیادہ سے زیادہ طاقتور بنا رہے ہیں۔ اور ہم نہیں جانتے کہ یہ سسٹم کسی بھی صورت حال میں کیا کر سکتے ہیں۔‘
سات پریشان کن پیش گوئیاںGetty Images
گذشتہ برس مارکس نے چیٹ جی پی ٹی جیسے سسٹمز کے بارے میں ’سات سنگین پیش گوئیاں‘ کی تھیش جن میں یہ بھی شامل ہے کہ پروگرام کا تازہ ترین ورژن ’بے لگام، بپھرے ہوئے بیل کی طرح ہو گا جس قابو کرنا مشکل‘ ہوگا۔
’ یہ نظام کچھ اس طریقے سے بڑی تعداد میں حواس باختہ کر دینے والی غلطیاں کرے گا جن کی نشاندہی کرنا مشکل ہو گی۔‘
مارچ کے آخر میں ایک عجیب معاملے نے میڈیا کی توجہ حاصل کی۔ ایک شخص نے چیٹ جی پی ٹی سے جنسی ہراسانی میں ملوث ماہرین تعلیم کے نام بتانے کو کہا۔
اس فہرست میں ایک امریکی قانون کے پروفیسر جوناتھن ٹرولی کا ذکر ہے۔ شو میں کہا گیا کہ ٹرولی نے الاسکا کے سفر کے دوران ایک طالب علم سے جنسی اشتعال پر مبنی تبصرے کیے اور انھیں چھونے کی کوشش کی۔ اپنی بات کے ثبوت کے طور پر واشنگٹن پوسٹ کی سنہ 2018 کی رپورٹ کا حوالہ دیا گیا۔
لیکن حقیقت میں ایسا کچھ نہیں ہوا، یعنی نہ ایسا سفر ہوا، نہ اخبار میں ایسی کوئی خبر شائع ہوئی اور یہاں تک کہ کسی کی طرف سے بھی ایسا کوئی الزام بھی عائد نہیں کیا گیا ہے۔
یہ ایسے ہی ہے جیسے روبوٹ نے الزام لگایا ہو۔
غلط معلومات پھیلانے کا ذریعہGetty Images
چیٹ جی پی ٹی کو بنانے والی کمپنی اوپن اے آئی نے ایک بیان میں کہا ہے کہ یہ پروگرام ’ہمیشہ درست معلومات فراہم نہیں کرتا ہے۔‘
کمپنی کے مطابق گیری مارکس کے لیے ’ہمارے پاس کوئی باضابطہ گارنٹی نہیں ہے کہ یہ پروگرام صحیح طریقے سے کام کرتے ہیں، یہاں تک کہ جب وہ بنیادی حساب کتاب بھی کرتے ہیں۔ کبھی کبھی ان کی دی گئیں معلومات درست ہوتی ہیں، کبھی کبھی ایسا نہیں بھی ہوتا۔ کنٹرول اور بھروسے کی کمی وہ مسائل ہیں جو میں دیکھ رہا ہوں۔‘
وہ کہتے ہیں کہ ’آپ کا روایتی کیلکولیٹر حساب کتاب کا ضامن ہوتا ہے۔ لیکن یہ ماڈل ایسا نہیں کرتے۔‘
اس سے مراد چیٹ جی پی ٹی کے پیچھے موجود سسٹم لارج لینگوئج ماڈلز (ایل ایل ایم) ہیں جو کہ بہت زیادہ ڈیٹا کو ذخیرہ کرتے ہیں اور طاقتور الگورتھم کے ذریعے انسانوں کے پہلے ہی دیے ہوئے جوابات کی بنیاد پر تیار کرتے ہیں۔
مختصراً: یہ ایک انتہائی نفیس رٹو طوطے کی مانند ہے مگر یہ ایک ایسی صورتحال ہے جس کے بارے میں کوئی اندازہ نہیں ہے کہ یہ کس کے بارے میں بات کر رہا ہے۔ کبھی کبھی ’ہیلوسینٹ‘ ہو جاتا ہے یعنی ایسی بات کر دیتا ہے جس کا کوئی وجود ہی نہیں ہوتا۔
Getty Images
گیری مارکس کے مطابق ’ایل ایل ایم‘ اتنے ’سمارٹ‘ نہیں ہیں، لیکن وہ خطرناک ضرور ہیں۔ خیال رہے کہ گیری مارکس نے اپنی ’تاریک پیش گوئیوں‘ کی فہرست میں مصنوعی ذہانت کے خطرات سے بھی آگاہ ہے۔
ٹیکسٹ جنریٹرز کے علاوہ، ایسے پروگرام جو تصاویر تیار کرتے ہیں ان میں بھی تیزی سے بہتری آ رہی ہے۔
حال ہی میں، چاندی کی جیکٹ میں پوپ فرانسس کی ایک تصویر، جو مڈجرنی پروگرام کے ساتھ لی گئی تھی، نے انٹرنیٹ کو چند گھنٹوں کے لیے الجھا کر رکھ دیا کہکیا وہ تصویر اصلی تھی؟
اس واقعہ کے بے ضرر نتائج تھے، لیکن یہ سچ اور جعلی کے درمیان ایک مستقل گرے زون میں داخل ہونے کا معاملہ تھا۔ نیویارک یونیورسٹی کے پروفیسر کا کہنا ہے کہ ’اگر ہم کارروائی نہیں کرتے ہیں، تو ہم حقیقت کے بعد کی دنیا میں داخل ہونے کے قریب ہیں۔‘
’یہ جمہوریت کے لیے ہر چیز کو بہت مشکل بنا دیتا ہے۔ ہمیں ان لوگوں پر پابندیوں کی ضرورت ہے جو بڑے پیمانے پر غلط معلومات فراہم کرتے ہیں، معلومات کہاں سے آتی ہیں اس کی نشاندہی کرنے کے لیے واٹر مارکس کی ضرورت ہوتی ہے، اور جھوٹ کا پتہ لگانے کے لیے نئی ٹیکنالوجیز کی ضرورت ہوتی ہے۔ جس طرح ایک اینٹی وائرس پروگرام ہے، ہمیں اینٹی انفارمیشن سافٹ ویئر کی ضرورت ہے۔‘
’سرمایہ داری ان مسائل کو حل نہیں کرے گی‘Getty Images
53 برس کے گیری مارکس اکیڈیمک کام تک محدود نہیں ہیں. انھوں نے اوبر کو ایک کمپنی بیچی اور ٹرانسپورٹیشن ایپ دیو کے مصنوعی ذہانت کے شعبے میں لیب ڈائریکٹر بن گئے۔ اس نے صرف چار ماہ کے بعد یہ عہدہ چھوڑ دیا، ایسے وقت میں جب کمپنی کو ’زہریلا‘ ماحول برقرار رکھنے کے الزامات کا سامنا تھا۔
یہ پوچھے جانے پر کہ کیا وہ مانتے ہیں کہ سلیکون ویلی کے مشہور منتر ’چیزوں کو تیزی سے آگے بڑھاؤ اور توڑ دو‘ اور مارکیٹوں میں زبردست مسابقت نے مصنوعی ذہانت کی ترقی کے لیے خطرناک حالات کو فروغ دیا، وہ کہتے ہیں کہ ’آپ سرمایہ داروں سے توقع نہیں کر سکتے، خود ان مسائل کو حل کریں۔ ‘
’اے آئی کے گاڈ فادر‘ کے ساتھ تفہیمGetty Images
مارکس کے محتاط موقف اور تیزی سے ترقی پانی والے مصنوعی ذہانت پر عدم اعتماد کو ہمیشہ پذیرائی نہیں ملی۔
اس کے شکوک و شبہات کا برسوں پہلے اس کے ساتھیوں نے مذاق اڑایا تھا (بنیادی طور پر ٹویٹر پر)۔
جیفری ہنٹن، جنھیں مصنوعی ذہانت کا ’گاڈ فادر‘ کہا جاتا ہے، نے حال ہی میں گوگل سے علیحدگی اختیار کرنے کے بعد کہا تھا کہوہ مصنوعی ذہانت سے درپیش مسائل کو ’ماحولیاتی تبدیلیوں کے مقابلے میں زیادہ ضروری‘ سمجھتے ہیں۔
’مصنوعی ذہانت کے کچھ پہلوؤں پر ہنٹن اور میں مختلف نظریات رکھتے ہیں۔ میں نے کچھ عرصہ قبل ان سے خط و کتابت کی، انھیں اپنا موقف بیان کیا اور انھوں نے مجھ سے اتفاق کیا، لیکن اہم مسئلہ جس پر ہم متفق ہیں وہ یہ ہے کہ کنٹرول کیسے حاصل کیا جائے۔‘
’میں شاید اس بات سے زیادہ متفق نہ ہوں کہ مصنوعی ذہانت موسمیاتی تبدیلی سے بڑا خطرہ ہے، کیونکہ یہ جاننا مشکل ہے۔ موسمیاتی تبدیلی کے خطرات کا اندازہ لگانے کے لیے بہت سا ڈیٹا موجود ہے۔ لیکن مصنوعی ذہانت کی فیلڈ میں اتنا ڈیٹا موجود نہیں ہے جس کی مدد سے ہم ان خطرات کا حساب لگا سکیں۔‘
’فی الوقت ہم نہیں جانتے کہ آیا روبوٹس کے کرہ ارض پر قبضہ کرنے کا کوئی امکان ہے یا نہیں، بہت طاقتور ٹولز بنائے جا رہے ہیں اور ہمیں ان سے منسلک خطرات پر غور کرنا چاہیے۔‘