فوجی میدان میں مصنوعی ذہانت: اخلاقی حدود، جوابدہی اور جنگ کا مستقبل

[post-views]
[post-views]

ارشد محمود اعوان

ہر ٹیکنالوجی کی انقلابی ترقی ایک اہم مرحلے پر پہنچتی ہے، جب سوال یہ نہیں رہتا کہ مشین کیا کر سکتی ہے بلکہ یہ کہ اسے کیا کرنے کی اجازت دی جانی چاہیے۔ جنگ میں مصنوعی ذہانت کے ساتھ یہی لمحہ آج آیا ہے۔ دنیا اس وقت دو عالمی طاقتوں کو دیکھ رہی ہے جو اس سوال کا سامنا بالکل مختلف انداز میں کر رہی ہیں، اور اس کے اثرات سنگین اور دیرپا ہیں۔

چین کی وزارت دفاع نے اس ہفتے سخت انتباہ جاری کیا۔ ترجمان جیانگ بن نے امریکہ پر تنقید کرتے ہوئے کہا کہ یہ ملک ایک ایسے فوجی مستقبل کی طرف بڑھ رہا ہے جسے انسانیت نے طویل عرصے سے تصور کیا اور اس سے خوفزدہ رہی ہے۔ انہوں نے 1984 کی فلم “خودکار قاتل مشین” کی مثال دی، جس میں خودکار مشینیں فوجی نظام پر قابض ہو کر انسانیت کے خلاف ہو جاتی ہیں۔ ایک وقت یہ تصور محض افسانہ لگتا تھا، لیکن جیانگ بن کے انتباہ نے اشارہ دیا کہ یہ منظر نامہ اب غیر ممکن نہیں رہا۔

یہ انتباہ امریکی انتظامیہ کی اس تیز رفتاری پر مرکوز تھا، جس نے فوج میں مصنوعی ذہانت کے نظاموں کو کم سے کم پابندیوں کے ساتھ شامل کیا۔ حساس فوجی ماحول میں نجی سطح پر تیار شدہ نظام کے استعمال کے اثرات فوری اور حقیقی ہیں۔

تاہم اصل اہم کہانی خود اس نظام کی نہیں، بلکہ ایک کمپنی اور اس کے اخلاقی اصولوں کی پابندی کے نتائج ہیں۔

ایک کمپنی کا ماڈل فوج میں سب سے زیادہ استعمال ہونے والا جدید خودکار نظام بن چکا تھا، جو خفیہ نیٹ ورکس پر کام کر رہا تھا۔ فوج نے حساس معلومات کے لیے اس پر اعتماد کیا اور اسے عملی منصوبہ بندی میں شامل کیا۔ پھر کمپنی نے ایک حد مقرر کی۔ اس نے اپنے نظام کو بڑے پیمانے پر نگرانی یا مکمل خودکار ہتھیاروں کے لیے استعمال کرنے کی اجازت نہیں دی، اس کے پیچھے اخلاقی اصول اور انسانی نگرانی کی ضرورت تھی، خاص طور پر زندگی اور موت کے معاملات میں۔

امریکی انتظامیہ کا ردعمل فوری اور سخت تھا۔ صدر نے تمام وفاقی اداروں کو اس کمپنی کے نظام کے استعمال سے روک دیا۔ فوجی قیادت نے کمپنی کو سپلائی چین کا خطرہ قرار دیا اور ٹھیکیداروں اور شراکت داروں کو تجارتی تعلقات سے روک دیا۔ ضابطہ کار پر عمل، ضمیر پر نہیں، شرط بن گیا۔

یہ صورتحال واضح کرتی ہے کہ ہر بڑی طاقت فوجی خودکار نظاموں پر کام کر رہی ہے، لیکن امریکہ اب ان کمپنیوں کو سزا دے رہا ہے جو اخلاقی حدود پر اصرار کرتی ہیں۔ تقاضا ذمہ دار نظام کا نہیں بلکہ بلاشرط فرمانبرداری کا ہے۔ یہ ابھرتی ہوئی ٹیکنالوجی کے نظم و نسق میں ایک گہری اور خطرناک تبدیلی ہے۔

چین کی وارننگ کو نظرانداز نہیں کیا جا سکتا۔ جیانگ بن نے چار خطرناک رجحانات کی نشاندہی کی: فوجی آپریشنز میں خودکار نظاموں کا غیر محدود استعمال، قومی خودمختاری کی خلاف ورزی کے لیے نظام کا استعمال، جنگ کے فیصلوں میں نظام کا کردار، اور الگورتھمز کو زندگی اور موت کے اختیار دینا۔ یہ سب پہلے ہی امریکہ میں زیر غور یا نفاذ میں ہیں، بغیر واضح اخلاقی یا قانونی فریم ورک یا بین الاقوامی معاہدے کے۔

زندگی اور موت کے معاملات میں الگورتھم کے فیصلے کوئی محض نظریاتی سوال نہیں، بلکہ ہماری دور کی سب سے بڑی اخلاقی پہیلی ہیں۔ انسانی فوجیوں کے فیصلے کمانڈ، ضمیر اور قانونی ذمہ داری میں جکڑے ہوتے ہیں، جبکہ خودکار نظام واضح جوابدہی سے خالی ہیں۔ جب الگورتھم مہلک فیصلہ کرتا ہے، تو موجودہ قانونی یا ادارہ جاتی فریم ورک ذمہ داری ٹھیک سے نہیں عائد کر سکتا۔ یہ معمولی مسئلہ نہیں، بلکہ جنگ میں جوابدہی کے اصول کے ممکنہ زوال کی علامت ہے۔

“ٹرمینیٹر منظرنامہ” اس بات کے بارے میں نہیں کہ مشینیں انسانوں کے خلاف ہو جائیں۔ اصل خطرہ زیادہ فوری ہے: خودکار نظام انسانی سمجھ سے بڑھ کر تیز رفتاری سے کام کرتے ہیں، پیچیدہ ماحول میں ناقابل واپسی فیصلے کرتے ہیں، اور غلطیاں یا کشیدگی اتنی تیزی سے پھیلتی ہیں کہ انسان مداخلت نہیں کر سکتا۔ ماضی میں حادثات نے جنگیں شروع کیں، لیکن کبھی بھی مشینی رفتار سے، متعدد محاذوں پر، بغیر انسانی کنٹرول کے نہیں۔

پاکستان اور چین نے اس بات پر زور دیا ہے کہ امریکی فوجی خودکار نظاموں کے تیز استعمال کے سامنے احتیاط برتی جائے۔ یہ سادگی کی درخواست نہیں، بلکہ جنگ میں مصنوعی ذہانت کی حدود پر بین الاقوامی پیشگی معاہدے کی ضرورت ہے۔ کچھ حدیں عبور ہو جانے کے بعد واپس نہیں لائی جا سکتیں۔

کمپنی نے اس خطرے کو سمجھا—اور اس کے لیے بھاری قیمت ادا کی۔ بین الاقوامی برادری کو اس بات کا ادراک ہونا چاہیے: اخلاقی ضمیر اور حکومت کی بلاشرط تعمیل کے درمیان کشمکش نہ صرف مصنوعی ذہانت کے مستقبل بلکہ جنگ، جوابدہی، اور انسانی بقا کا تعین کرے گی۔

Leave a Comment

Your email address will not be published. Required fields are marked *

Latest Videos