Think Bengal

বিশ্ব রাজনীতির নতুন চালক কৃত্রিম বুদ্ধিমত্তা: পরমাণু যুদ্ধের চাবিকাঠি কি তবে AI-এর হাতে?

Published By: Chanchal Sen | Published On:
Share:

AI in global politics: সাম্প্রতিক ইরান-ইজরায়েল সংঘাত বিশ্বজুড়ে এক নতুন এবং ভয়ঙ্কর আলোচনার জন্ম দিয়েছে। এই উত্তেজনা কেবল দুটি দেশের সামরিক শক্তির প্রদর্শন বা ভূ-রাজনৈতিক কৌশলের মধ্যেই সীমাবদ্ধ নেই, বরং যুদ্ধের পদ্ধতিতে এক নীরব বিপ্লবের ইঙ্গিত দিচ্ছে, যার কেন্দ্রে রয়েছে কৃত্রিম বুদ্ধিমত্তা বা আর্টিফিশিয়াল ইন্টেলিজেন্স (AI)। সামরিক বিশ্লেষক থেকে শুরু করে প্রযুক্তিবিদ এবং নীতি নির্ধারকরা আজ এক জটিল প্রশ্নের মুখোমুখি: আধুনিক যুদ্ধক্ষেত্রে AI-এর ক্রমবর্ধমান ভূমিকা কি মানবতাকে এক অনিয়ন্ত্রিত পারমাণবিক সংঘাতের দিকে ঠেলে দিতে পারে?

আশঙ্কা করা হচ্ছে যে, মানুষের নিয়ন্ত্রণের বাইরে গিয়ে AI যদি কোনোদিন পারমাণবিক অস্ত্র ব্যবহারের সিদ্ধান্ত নিয়ে ফেলে, তবে তার পরিণতি হবে মানব সভ্যতার জন্য বিপর্যয়কর। এই প্রেক্ষাপটে, কৃত্রিম বুদ্ধিমত্তার হাতে পারমাণবিক যুদ্ধের নিয়ন্ত্রণ চলে যাওয়ার সম্ভাবনাটি আর কল্পবিজ্ঞানের বিষয় নয়, বরং এটি এক বাস্তব এবং জরুরি আলোচনার বিষয় হয়ে উঠেছে।

ইরান এবং ইজরায়েলের মধ্যেকার দীর্ঘদিনের ছায়া যুদ্ধ সাম্প্রতিক মাসগুলোতে এক নতুন মাত্রা পেয়েছে। সিরিয়ায় ইরানের কনস্যুলেটে ইজরায়েলি হামলার প্রতিক্রিয়ায় ইরানের পক্ষ থেকে সরাসরি ইজরায়েলের ভূখণ্ড লক্ষ্য করে কয়েকশ ড্রোন ও মিসাইল নিক্ষেপ করা হয়। এর জবাবে ইজরায়েলও পাল্টা হামলা চালায়। এই আক্রমণ ও পাল্টা আক্রমণের ঘটনাপ্রবাহে সবচেয়ে গুরুত্বপূর্ণ দিকটি হলো উভয় পক্ষের দ্বারা অত্যাধুনিক প্রযুক্তির ব্যবহার।

ইজরায়েলের আয়রন ডোম এবং অন্যান্য আকাশ প্রতিরক্ষা ব্যবস্থা যেমন ডেভিড’স স্লিং ও অ্যারো সিস্টেম প্রায় ৯৯ শতাংশ ইরানি ড্রোন ও মিসাইলকে প্রতিহত করতে সক্ষম হয়েছে। এই প্রতিরক্ষা ব্যবস্থাগুলোর সাফল্যের পেছনে রয়েছে অত্যন্ত উন্নত মানের র‍্যাডার, সেন্সর এবং কৃত্রিম বুদ্ধিমত্তা চালিত অ্যালগরিদম, যা সেকেন্ডের মধ্যে একাধিক লক্ষ্যের গতিপথ বিশ্লেষণ করে সেগুলোকে ধ্বংস করার সিদ্ধান্ত নিতে পারে। অন্যদিকে, ইরানের ড্রোনগুলোও সুনির্দিষ্ট লক্ষ্যবস্তুতে আঘাত হানার জন্য প্রোগ্রাম করা হয়েছিল।

এই ঘটনাই প্রমাণ করে যে, আজকের যুদ্ধক্ষেত্রে জয়-পরাজয়ের অন্যতম নির্ধারক হয়ে উঠছে কৃত্রিম বুদ্ধিমত্তা।
যুদ্ধক্ষেত্রে কৃত্রিম বুদ্ধিমত্তার ব্যবহার এখন আর কোনো নতুন ধারণা নয়। গোয়েন্দা তথ্য সংগ্রহ, নজরদারি, শত্রুর অবস্থান চিহ্নিত করা এবং সাইবার আক্রমণে বহু বছর ধরেই AI ব্যবহৃত হয়ে আসছে। তবে এর প্রয়োগ আরও গভীরে প্রবেশ করেছে, বিশেষ করে ‘টার্গেট রিকগনিশন’ বা লক্ষ্যবস্তু শনাক্তকরণের ক্ষেত্রে।

সংবাদমাধ্যমের রিপোর্ট অনুযায়ী, ইজরায়েলি ডিফেন্স ফোর্সেস (IDF) গাজায় হামাসের বিরুদ্ধে যুদ্ধে ‘ল্যাভেন্ডার’ এবং ‘দ্য গসপেল’-এর মতো AI-ভিত্তিক সিস্টেম ব্যবহার করেছে। অভিযোগ রয়েছে যে, ‘ল্যাভেন্ডার’ নামক সিস্টেমটি হাজার হাজার সন্দেহভাজন হামাস সদস্যকে ন্যূনতম মানবিক পর্যবেক্ষণ ছাড়াই টার্গেট হিসেবে চিহ্নিত করেছে। এই সিস্টেমগুলো বিপুল পরিমাণ ডেটা (যেমন – সোশ্যাল মিডিয়া অ্যাক্টিভিটি, ফোন কল, পরিচিতি) বিশ্লেষণ করে সম্ভাব্য লক্ষ্যবস্তুর তালিকা তৈরি করে। এর ফলে অনেক দ্রুত সিদ্ধান্ত নেওয়া সম্ভব হলেও, ভুলের আশঙ্কা এবং নিরীহ মানুষের জীবনহানির ঝুঁকি বহুগুণে বেড়ে যায়।

এখানেই নৈতিক প্রশ্নটি বড় হয়ে দেখা দেয়: একটি অ্যালগরিদম কি মানুষের জীবন-মৃত্যুর সিদ্ধান্ত নেওয়ার অধিকারী হতে পারে?এই প্রযুক্তিগত অগ্রগতির পরবর্তী এবং সবচেয়ে ভয়ঙ্কর ধাপটি হলো ‘লিথাল অটোনোমাস ওয়েপন সিস্টেমস’ (LAWS), যা জনপ্রিয়ভাবে ‘স্লটারবটস’ বা ‘ঘাতক রোবট’ নামে পরিচিত। এগুলি এমন ধরনের অস্ত্র যা মানুষের হস্তক্ষেপ ছাড়াই স্বাধীনভাবে লক্ষ্যবস্তু খুঁজে বের করতে, শনাক্ত করতে এবং ধ্বংস করতে সক্ষম।

বর্তমানে বিশ্বের ক্ষমতাধর দেশগুলো এই প্রযুক্তি নিয়ে গবেষণা চালাচ্ছে। এর সমর্থকদের যুক্তি হলো, এই সিস্টেমগুলো মানুষের চেয়ে দ্রুত, নির্ভুল এবং আবেগহীনভাবে কাজ করতে পারে, যা যুদ্ধক্ষেত্রে নিজেদের পক্ষে تلفাতের সংখ্যা কমিয়ে আনতে সহায়ক হবে। কিন্তু এর বিপদের দিকটি আরও অনেক বেশি গুরুতর। যদি এই ধরনের স্বশাসিত অস্ত্র ব্যবস্থা কোনো পারমাণবিক শক্তিধর দেশের হাতে চলে আসে এবং সেটিকে পারমাণবিক অস্ত্রের কমান্ড অ্যান্ড কন্ট্রোল সিস্টেমের সাথে যুক্ত করা হয়, তবে পরিস্থিতি মানব নিয়ন্ত্রণের বাইরে চলে যেতে পারে।

পারমাণবিক যুদ্ধের ক্ষেত্রে সবচেয়ে বড় আশঙ্কাটি হলো ‘ফলস পজিটিভ’ বা ভুল তথ্য। ইতিহাসে এমন একাধিক ঘটনা রয়েছে যেখানে প্রযুক্তিগত ত্রুটির কারণে একটি দেশ ভুলবশত ধরে নিয়েছে যে তাদের উপর পারমাণবিক হামলা হতে চলেছে। উদাহরণস্বরূপ, ১৯৮৩ সালের ২৬শে সেপ্টেম্বর, সোভিয়েত ইউনিয়নের আকাশ প্রতিরক্ষা ব্যবস্থার স্যাটেলাইট ভুলবশত পাঁচটি আমেরিকান পারমাণবিক মিসাইল ছোড়ার সংকেত দেয়। সেই সময়ে সোভিয়েত ডিউটি অফিসার স্ট্যানিস্লাভ পেট্রোভ তার উপস্থিত বুদ্ধি এবং অভিজ্ঞতার উপর নির্ভর করে এটিকে একটি সিস্টেমের ত্রুটি হিসেবে চিহ্নিত করেন এবং পাল্টা আক্রমণের প্রক্রিয়া শুরু করেননি।

তার এই সিদ্ধান্তই সেদিন বিশ্বকে একটি সম্ভাব্য পারমাণবিক যুদ্ধ থেকে রক্ষা করেছিল। এখন প্রশ্ন হলো, যদি সেইদিন স্ট্যানিস্লাভ পেট্রোভের জায়গায় একটি AI সিস্টেম থাকত, যা শুধুমাত্র ডেটা এবং পূর্ব-নির্ধারিত প্রোটোকল অনুযায়ী কাজ করে, তবে কি সে একই রকম ‘মানবিক’ সিদ্ধান্ত নিতে পারত? উত্তরটি সম্ভবত ‘না’। একটি AI সিস্টেম হয়তো ডেটাকে চূড়ান্ত বলে ধরে নিয়ে স্বয়ংক্রিয়ভাবে পাল্টা পারমাণবিক হামলা শুরু করার নির্দেশ দিত, যার ফলে কয়েক মিনিটের মধ্যেই বিশ্ব এক ভয়াবহ ধ্বংসযজ্ঞের মুখোমুখি হতো।

বিষয়টি আরও জটিল হয়ে ওঠে যখন ‘ডেড হ্যান্ড’ বা ‘পেরিমিটার’ সিস্টেমের মতো স্বয়ংক্রিয় প্রতিশোধমূলক ব্যবস্থার কথা ভাবা হয়। সোভিয়েত আমলে তৈরি এই সিস্টেমটি এমনভাবে ডিজাইন করা হয়েছিল যে, যদি দেশের নেতৃত্ব পারমাণবিক হামলায় নিশ্চিহ্ন হয়ে যায় এবং যোগাযোগ ব্যবস্থা ভেঙে পড়ে, তবে এটি স্বয়ংক্রিয়ভাবে দেশের সমস্ত পারমাণবিক অস্ত্র শত্রুপক্ষের দিকে ছুড়ে দেবে। এখন যদি এই ধরনের ব্যবস্থাকে কৃত্রিম বুদ্ধিমত্তার মাধ্যমে আরও উন্নত করা হয়, তবে তা আরও বিপজ্জনক হয়ে উঠবে। একটি AI-চালিত ‘ডেড হ্যান্ড’ সিস্টেম সাইবার আক্রমণ বা প্রযুক্তিগত ত্রুটির কারণেও সক্রিয় হয়ে যেতে পারে, যার পরিণতি হবে অকল্পনীয়।


বিশ্বজুড়ে এই বিষয়ে উদ্বেগ বাড়ছে। রাষ্ট্রসংঘ সহ বিভিন্ন আন্তর্জাতিক মঞ্চে স্বশাসিত অস্ত্র ব্যবস্থার নিয়ন্ত্রণের জন্য আলোচনা চলছে। অনেক বিজ্ঞানী, নোবেল বিজয়ী এবং মানবাধিকার কর্মী এই ধরনের অস্ত্রের উপর সম্পূর্ণ নিষেধাজ্ঞার দাবি জানিয়েছেন। তাদের মতে, যেহেতু একটি মেশিন নৈতিকতা, সহানুভূতি বা পরিস্থিতির প্রেক্ষাপট বুঝতে পারে না, তাই তার হাতে জীবন-মৃত্যুর চূড়ান্ত ক্ষমতা দেওয়া উচিত নয়।

কিন্তু এই বিষয়ে কোনো আন্তর্জাতিক ঐক্যমত্যে পৌঁছানো অত্যন্ত কঠিন। কারণ মার্কিন যুক্তরাষ্ট্র, চীন, রাশিয়া এবং ইজরায়েলের মতো দেশগুলো AI প্রযুক্তিতে একে অপরকে ছাড়িয়ে যাওয়ার এক নিরন্তর প্রতিযোগিতায় লিপ্ত। তারা মনে করে, এই প্রযুক্তিগত শ্রেষ্ঠত্বই আগামী দিনের ভূ-রাজনৈতিক ক্ষমতার চাবিকাঠি। ফলে, কেউই এই প্রযুক্তি থেকে পিছিয়ে থাকতে চায় না, যা এক নতুন এবং আরও বিপজ্জনক অস্ত্র প্রতিযোগিতার জন্ম দিয়েছে।

উপসংহারে বলা যায়, ইরান-ইজরায়েল সংঘাত আমাদের চোখে আঙুল দিয়ে দেখিয়ে দিয়েছে যে, যুদ্ধক্ষেত্রের প্রযুক্তিগত চরিত্র দ্রুত বদলে যাচ্ছে এবং কৃত্রিম বুদ্ধিমত্তা সেই পরিবর্তনের প্রধান চালিকাশক্তি। AI একদিকে যেমন সামরিক সক্ষমতা বাড়াতে পারে, তেমনই অন্যদিকে এটি মানব সভ্যতাকে এক অভূতপূর্ব ঝুঁকির মুখে দাঁড় করিয়ে দিয়েছে।

পারমাণবিক অস্ত্রের বোতাম যদি কোনোদিন মানুষের হাত থেকে AI-এর হাতে চলে যায়, তবে একটি ছোট ভুল বা প্রযুক্তিগত ত্রুটিই সমগ্র পৃথিবীকে ধ্বংসের দ্বারপ্রান্তে নিয়ে যেতে পারে। তাই, এই প্রযুক্তির নিয়ন্ত্রণ এবং এর নৈতিক ব্যবহারের জন্য সুস্পষ্ট আন্তর্জাতিক আইন ও প্রোটোকল তৈরি করা এখন সময়ের দাবি। মানবতাকে তার নিজের সৃষ্টির দাস হওয়া থেকে রক্ষা করার দায়িত্ব মানুষেরই। এই প্রযুক্তির লাগাম টেনে ধরার সময় এখনই, নতুবা ভবিষ্যৎ প্রজন্ম হয়তো আমাদের এই ভুলের ক্ষমা করবে না।

Chanchal Sen

চঞ্চল সেন কলকাতা বিশ্ববিদ্যালয় থেকে রাষ্ট্রবিজ্ঞানে স্নাতক। তিনি একজন অভিজ্ঞ লেখক এবং রাজনৈতিক বিশ্লেষক, যিনি পলিটিক্স নিয়ে লেখালিখিতে পারদর্শী। চঞ্চলের লেখায় রাজনৈতিক প্রেক্ষাপটের গভীর বিশ্লেষণ এবং সমসাময়িক ঘটনাবলীর সঠিক উপস্থাপন পাঠকদের মুগ্ধ করে। তার নিবন্ধ এবং মতামতমূলক লেখা বস্তুনিষ্ঠতা ও বিশ্লেষণধর্মিতার কারণে পাঠকমহলে ব্যাপকভাবে সমাদৃত। চঞ্চল সেনের তীক্ষ্ণ দৃষ্টিভঙ্গি এবং গভীর গবেষণা তাকে রাজনৈতিক সাংবাদিকতার জগতে একটি স্বতন্ত্র স্থান প্রদান করেছে। তিনি তার লেখনীর মাধ্যমে পাঠকদের রাজনৈতিক সচেতনতা বৃদ্ধি করতে এবং সমাজে পরিবর্তন আনতে অগ্রণী ভূমিকা পালন করে চলেছেন।

আরও পড়ুন

Motorola Razr Fold Snapdragon 8 Gen 5: ফোল্ডেবল ফোনের নতুন রাজা এসে গেছে! Nothing Phone 4a Series 2026 — দাম, স্পেসিফিকেশন ও সব লেটেস্ট আপডেট এক জায়গায় যেভাবে ক্ষমতার শীর্ষে উঠে এসেছিলেন আয়াতুল্লাহ আলী খামেনি রিলায়েন্স জিও ভারতে জিপিএস সহ JioEyeQ Dashcam চালু করেছে Xiaomi Pad 8 স্পেসিফিকেশন, দাম ও সম্পূর্ণ রিভিউ — জানুন সব বিবরণ