প্রফেট সুকুমার রায় দেখিয়েছিলেন উদোর পিণ্ডি বুধোর ঘাড়ে পড়লে কি কেলোর কীর্তিই না হয়। একশো বছর আগে তিনি তো আর জানতেন না, আর্টিফিশিয়াল ইন্টেলিজেন্স বলে এক বুধোর উদয় হবে আর ভালোমানুষ উদোর পাপের পোঁটলা পিন্ডি তার ঘাড়ে গিয়ে চাপবে?
উদোর পিন্ডি কেন বুধোর ঘাড়ে, আর্টিফিশিয়াল ইন্টেলিজেন্স মাথা নাড়ে।
রহস্য জমজমাট!
উদোর পিণ্ডি রহস্যের তিনটে সূত্র নিয়ে আজ আমরা কথা বলব। তার প্রথম সূত্রই ইরানের মীনাব প্রদেশের ২৮ শে ফেব্রুয়ারি।
ইরানের মিনাবে একটা প্রাথমিক বিদ্যালয়ে মিসাইল হানায় ১৭৫ জন মারা গেলেন, বেশিরভাগ শিশু। ২৮ শে ফেব্রুয়ারি। ঠিক সেইদিন তিন হাজার কিলোমিটার দূরের পশ্চিমবঙ্গে ষাট লাখ ভোটার 'লজিক্যাল ডিসক্রিপ্যান্সি' হয়ে গেলেন। মাসখানেক পর সেই সংখ্যা হয়ে দাঁড়াল ৯১ লক্ষ। তাঁদের ভোট দেওয়ার অধিকার নেই। আর ভোটের এই বাজারে ৯ এপ্রিল হুমায়ুন কবিরের একটা স্টিং ভিডিও ভাইরাল হলো, যেটাকে তিনি নিজেই বললেন AI-জেনারেটেড। এই তিনটে গল্পেই AI আছে — বা AI-এর অভিযোগ আছে। তিনটে গল্পেই উদোর পিন্ডি বুধো AI এর ঘাড়ে চাপানো হয়েছে। দায়িত্ব নেওয়ার জায়গাটা অস্পষ্ট।
মিনাবের স্কুলের ঘটনা মানুষের সর্বকালের ইতিহাসে এক কালো অধ্যায়। কিন্তু এই নিয়েও তর্ক হচ্ছে, যে মানুষের ভুল না মেশিনের?
২৮ ফেব্রুয়ারি ২০২৬।কী হয়েছিল সেদিন? মার্কিন যুক্তরাষ্ট্র আর ইসরায়েল যুগ্মভাবে ইরানে মিসাইল হামলা শুরু করল। সেই হামলার প্রথম ঘণ্টাগুলোতেই দক্ষিণ ইরানের মিনাব শহরে মিসাইল আছড়ে পড়ল শাজারে তাইয়িবা প্রাথমিক বিদ্যালয়ে। পাশেই ছিল IRGC-র একটা নৌঘাঁটির পুরনো কমপ্লেক্স। স্কুলটায় তখন শিশুরা পড়ছিল । মৃতের সংখ্যা: কমপক্ষে ১৭৫, যার মধ্যে ১৫০-এরও বেশি শিশু ও শিক্ষক। ঘাতক Tomahawk ক্রুজ মিসাইল যা কিনা শুধু মার্কিন নৌবাহিনীর কাছে থাকে।
এখানে AI আসছে কোথা থেকে?
কারণ পেন্টাগন Palantir-এর Maven Smart System ব্যবহার করছে, যেখানে Anthropic-এর Claude মডেল যুক্ত। এই সিস্টেম স্যাটেলাইট ছবি, রাডার ডেটা, সিগন্যাল ইন্টেলিজেন্স একসাথে বিশ্লেষণ করে টার্গেট প্যাকেজ তৈরি করে — প্রতিটা টার্গেটের কৌশলগত গুরুত্ব rank করে, এমনকি প্রতিটি হামলার আইনি যুক্তি পর্যন্ত স্বয়ংক্রিয়ভাবে তৈরি করে। প্রথম ২৪ ঘণ্টায় এই সিস্টেম ১,০০০-এরও বেশি টার্গেট কোর্ডিনেট জেনারেট করেছিল।
AI ভুল করে বাচ্চাদের স্কুলের ঠিকানা দিয়েছিল তাহলে?
না। এটা AI-এর ভুল ছিল না। ভুল যদি হয় তা মানুষের ভুল — এবং AI এর এই ভুল ধরার ক্ষমতা ছিল, কিন্তু ধরেনি, কারণ তাকে ধরার সুযোগ দেওয়া হয়নি।
মিনাবের IRGC কমপ্লেক্সের টার্গেট কোর্ডিনেট তৈরি হয়েছিল Defense Intelligence Agency-র পুরনো ডেটা দিয়ে। ২০১৩ থেকে ২০১৬-র মধ্যে কমপ্লেক্সটার একটা অংশ আলাদা হয়ে স্কুল হয়ে যায়। সেই তথ্য মিলিটারি ডাটাবেসে আপডেট হয়নি। হামলার ২৪ থেকে ৪৮ ঘণ্টা আগে মানুষ রিভিউয়ার টার্গেট লিস্ট দেখেও এই পরিবর্তন ধরতে পারেননি।
এটাই হলো দায়িত্বের ব্ল্যাক হোল। পেন্টাগন ডেটা অনুযায়ী, Maven সিস্টেম সাধারণ পরিস্থিতিতে মাত্র ৬০% অ্যাকিউরেসিতে কাজ করে। খারাপ আবহাওয়া বা কম ভিসিবিলিটি-তে সেটা ৩০%-এরও নিচে নেমে যায়। তবু সিস্টেম চালু ছিল, এবং মানুষ দিয়ে ভেরিফিকেশন ঘোড়ার ডিম্ পেড়েছে। আমেরিকার ডিফেন্স সেক্রেটারি Pete Hegseth হুকুম দিয়েছিলেন 'no stupid rules of engagement' — সহজ ভাষায়: এইসব ভেরিফিকেশনের ঝামেলা কমাও, কাজের গতি বাড়াও।
তাহলে মানুষের জন্য যন্ত্র দায়ী না যন্ত্রের জন্য মানুষ?
AI এর কীর্তির আইনি দায় নির্ধারণের জন্য আন্তর্জাতিক আইনে কোনো স্পষ্ট পথ নেই।
এখানেই AI অ্যাকাউন্টেবিলিটির মূল প্যারাডক্স। যদি AI সিস্টেম ভুল করত, দায় কার? অ্যান্থ্রপিকের? যারা Claude বানিয়েছে? Palantir-এর? যারা সেটা ইন্টিগ্রেট করেছে? পেন্টাগনের? যারা সিদ্ধান্ত নিয়েছে? নাকি সেই ইন্টেলিজেন্স অ্যানালিস্টদের — যাদের কাজ ছিল ডেটা আপডেট করা? ট্রাম্প হাওয়ায় একটা মিথ্যে উড়িয়েছিলেন যে ইরান নাকি নিজেই মেরেছে — সেটা ধোপে টেকেনি । কিন্তু ট্রাম্পের এই মিথ্যা বলার ক্ষমতা একটুও টসকায় নি। কেন? যখন অ্যাকাউন্টেবিলিটি স্ট্রাকচার অস্পষ্ট থাকে, মানুষের প্রাণের দায় নেওয়ার মানুষ পাওয়া মুশকিল হয়।
কিন্তু এর সঙ্গে পশ্চিমবঙ্গের SIR এর তুলনা আসছে কোথা থেকে? এখানে তো জুডিশিয়ারি দিয়ে রিভিউ করানো চলছে! তাহলে মানুষ দায় নিচ্ছে না এ কথা উঠছে কেন?
বেশ, বঙ্গের ভোটরঙ্গে ফিরি। পশ্চিমবঙ্গের ২০২৬ বিধানসভা নির্বাচনের আগে Election Commission of India একটা Special Intensive Revision (SIR) প্রক্রিয়া চালাল। লক্ষ্য: voter list পরিষ্কার করা। কিন্তু যা হলো সেটা ভারতের গণতান্ত্রিক ইতিহাসে এর আগে কখনো হয়নি। ECI-র ERONET সফটওয়্যার প্রায় ১.৩৬ কোটি ভোটারকে 'logical discrepancy' category-তে ফেলল। তারপর?
আর কি, তাদের ভোটাধিকার সাসপেন্ড করা হলো — 'Under Adjudication' ওয়াটারমার্ক পড়ে গেল নামের ওপর! প্রচুর রিভিউ, কাটছাঁট করে আপাতত যা দাঁড়িয়েছে, ৯১ লক্ষ মানুষ ভোট দেবার অধিকার হারিয়েছেন।
তা এই বিরাট যজ্ঞে কোন 'লজিক' ধরা হলো, এই ঐতিহাসিক লজিকাল ডিসক্রিপেন্সি বুঝতে?
এর পেছনের অ্যালগরিদম ২০০২ সালের পুরনো ভোটার রোলের সাথে বর্তমান ভোটারদের ম্যাপিং করার চেষ্টা করেছিল। 'লজিক্যাল ডিসক্রিপ্যান্সি' মানে যেখানে অ্যালগরিদম মনে করেছে data-তে গোলমাল আছে। 'Roy' আর 'Ray' হয়ে গেল আলাদা মানুষ। 'Mukherjee' আর 'Mukhopadhyay' আলাদা। 'Sk.' মানে Sheikh — এই abbreviation অ্যালগরিদম বুঝল না। এদিকে বাংলায় আরবি-ফারসি নামের বানান কখনো এক হয় না — “মহম্মদ”, “মোহাম্মদ”, “মুহাম্মদ” একই মানুষ। আবার রহমত আলীর মেয়ের নাম আমিনা বিবি হতেই পারে, পদবি আলাদা হতে পারে। মুসলিম নামে কাঠামোগতভাবে এই বৈচিত্র অনেক বেশি। এটা অজানা তথ্য নয়, এ হলো বাংলা ভাষার স্বাভাবিক বৈশিষ্ট্য।
তাহলে এই ফিচার দেখে ফ্ল্যাগ করার সিদ্ধান্ত নেওয়ার আগে কেউ কি ভাবেনি কোন কমিউনিটি সবচেয়ে বেশি ধরা পড়বে?
ভেবেছিল কিনা — সেটাও একটা প্রশ্ন। না ভাবাটাও একটা সিদ্ধান্ত। Alt News ছয়টা বিধানসভা কেন্দ্রের ১২ লক্ষ ৮১ হাজার ভোটার রেকর্ড ডিজিটাইজ করেছে। ৩ লক্ষ ২ হাজার ভোটার “Under Adjudication”। এই ৩ লক্ষের ৯২.৬% মুসলিম — যেখানে মোট ভোটারের মধ্যে মুসলিম ৫১.৭%। মুসলিম adjudication rate ৪২.২%, হিন্দু ৩.৫%। অনুপাত ১২:১।
ECI বলছে — “Logical Discrepancy”। সফটওয়্যার ফ্ল্যাগ করেছে। অ্যালগরিদম সবার জন্য সমান।
মানিকচক - হিন্দু-মুসলিম ভোটার প্রায় সমান। Adjudication list-এ ৯৭.৪% মুসলিম। এই সংখ্যা “বাগ” নয়। বাগ র্যান্ডম হয়। এই প্যাটার্ন র্যান্ডম নয়।
The Wire-এর অ্যানালিসিস কী বলছে?:
রঘুনাথগঞ্জ এ adjudicated মেয়েদের deletion rate ২৯.৭%, ছেলেদের মাত্র ১৭.২% — মেয়েরা ১.৭ গুণ বেশি বাদ পড়েছেন। সুজাপুরে মেয়েরা ২১% বেশি। আর মালতীপুরে সবচেয়ে চরম অবস্থা — সেখানে মোট deletion-এর ৬৭.৪% মেয়ে।
বিয়ের পর মেয়েদের পদবি বা ঠিকানা বদলে যায় এ তো জানা কথা। এই ডকুমেন্টেশন গ্যাপ-কেই অ্যালগরিদম “discrepancy” হিসেবে flag করেছে। মূলত গ্রামের মেয়েদের এই বিয়ে বাবদ মাইগ্রেশন সিস্টেম বুঝতেও পারেনি।
বিয়ের আগে “আমিনা বিবি রহমত” — বাবার নামে। বিয়ের পরে ভোটার লিষ্ট -এ “আমিনা বিবি করিম” — স্বামীর নামে। ২০০২-এর পুরনো রোল-এ নাম “আমিনা” মাত্র। অ্যালগরিদম এই তিনজনকে তিনজন আলাদা মানুষ ভেবেছে, অথবা ম্যাপিং করতে পারেনি। হাতে রইল কী? লজিকাল ডিস্ক্রিপেন্সি।
এটা শুধু লিঙ্গ বৈষম্য নয়, এটা বিবাহ-প্রথার বিরুদ্ধে অ্যালগরিদম — যে প্রথায় মেয়েদের নাম ও পরিচয় বদলায়, কিন্তু সিস্টেম সেই বদল ধরতে পারে না।
মজার কথা হলো, The Reporters' Collective বের করেছে: ECI নিজেই নাকি বিহার SIR-এ সুপ্রিম কোর্টকে বলেছিল যে এই অ্যালগরিদমের অ্যাকিউরেসি গোলমেলে, 'false flag'-এর সংখ্যা অনেক বেশি। তাই বিহারে এই AI মডেল বাতিল করা হয়েছিল। কিন্তু পশ্চিমবাংলায় U-টার্ন করে AI মডেল চালু করা হলো — কোনো পাবলিক এক্সপ্লানেশন ছাড়া।
একটা অ্যালগরিদম যখন কোনো সংখ্যালঘু শ্রেণীকে বেমানানভাবে বেশি হারে ফ্ল্যাগ করে! মডেল হোক, অ্যালগরিদম হোক, হাউ মাউ খাঁউ, বায়াসের গন্ধ পাঁউ-
এখানে ঠিক সেটাই হয়েছে।
এ হলো টেক্সটবুক 'demographic parity failure'!
তাহলে ECI-কে বলতে হবে — ঠিক কোন অ্যালগরিদম, কোন ফিচার্স দেখে, কোন threshold-এ এই ফ্ল্যাগ তৈরি হয়েছে। সোর্স কোড চাই না, মেথডোলজি চাই। কোন মানুষ এই সিস্টেম ডিসাইন অ্যাপ্রুভ করেছে, তার নাম চাই।
ডিপ্লয় করার আগে ডেমোগ্রাফিক ইমপ্যাক্ট এসেসমেন্ট হয়েছিল কিনা, সেই রিপোর্ট চাই। AI accountability-র মূল নীতি হলো : এক্সপ্লেইনেবিলিটি।
কোনো অ্যালগরিদম যদি কাউকে ক্ষতিগ্রস্ত করে, তাকে জানতে হবে কেন। বিধি বাম! পশ্চিমবঙ্গের লক্ষ লক্ষ ভোটাররা জানলেন না তাদের কেন ফ্ল্যাগ করা হয়েছে, অ্যালগরিদম কীভাবে কাজ করেছে।
ইউরোপের AI Act-এর ধারায় নির্বাচন প্রক্রিয়ায় ব্যবহৃত AI 'high-risk' সিষ্টেম। এর জন্য স্বচ্ছতা, জবাবদিহিতা, মানুষ রিভিউয়ার প্রয়োজন। ECI-র SIR প্রক্রিয়া এর কোনোটাই পূরণ করেনি।
November ২০২৫ থেকে SIR-সংক্রান্ত স্ট্রেসে কমবেশি একশো জন মারা গেছেন। অতিরিক্ত স্ট্রেসের কারণে BLO থেকে শুরু করে আম ভোটার যারা লাইনে দাঁড়িয়েছেন, লিস্টে নাম নেই দেখে আতঙ্কে ভুগেছেন, ভেবেছেন তাঁদের নাগরিকত্ব চলে গেছে। এই মৃত্যুর দায় কে নেবে?
উদোর ঝোলা একবার বুধোর ঘাড়ে চাপাতে পারলেই কেল্লা ফতে। যত দোষ AI ঘোষ। অ্যালগরিদমের বিরুদ্ধে FIR হয় না। AI সংসদে জবাব দিতে আসে না। এর একটা অন্য দিকও খুলে গিয়েছে।
৯ এপ্রিল ২০২৬। পশ্চিমবঙ্গ নির্বাচনের গরমে নির্বাচনী ইশতাহার ফুলকো রুটি হয়ে উঠছে। পশ্চিম বঙ্গের শাসকদল তৃণমূল কংগ্রেস একটা ১৯ মিনিটের ভিডিও বার করল। ভিডিওতে দেখা যাচ্ছে মুর্শিদাবাদের বিধায়ক হুমায়ুন কবীর বলছেন তিনি বিজেপির সাথে ₹১,০০০ কোটির ডিল করেছেন মুসলিম সম্প্রদায়কে বিভ্রান্ত করতে। এই কোটি কোটি টাকার লেনদেনের কথায় শুভেন্দু অধিকারী, অসমের মুখ্যমন্ত্রী হিমন্ত বিশ্বশর্মা, মধ্যপ্রদেশের মুখ্যমন্ত্রী মোহন যাদব এমনকি PMO-র নাম আছে।
সঙ্গে সঙ্গে কবীর, বিজেপির শীর্ষ নেতৃত্ব বললেন এটা AI-জেনারেটেড ডিপফেক। এমন কিছু আদতে হয়ই নি।
এখানেও যত দোষ AI ঘোষ! সাধারণত AI ডিপফেক ভিডিওর কিছু মার্কামারা বৈশিষ্ট্য থাকে। কানের আকার অস্বাভাবিক হয়, চোয়াল আর গলার সংযোগস্থল বেঢপ হয়, চোখের পাতা খুব ধীরে পড়ে, হাতের আঙুল ছয় সাতটা হয়ে যায়। Audio আর lip সিঙ্ক -এর মধ্যে সূক্ষ্ম delay হয়। বাংলা বা হিন্দির মতো ভাষায় এটা আরও বেশি ধরা পড়ে, কারণ ভারতীয় ভাষা ও উচ্চারণে AI এখনও বেজায় শিক্ষা নবিশ।
তাছাড়া এখনো কয়েক সেকেন্ড থেকে এক-দুই মিনিটের মধ্যে AI video বেশি বিশ্বাসযোগ্য। সেখানে ১৯ মিনিটের লম্বা ভিডিও!
১৯ মিনিটের consistent facial movement, realistic lip sync, natural কথাবার্তার ফ্লো তৈরি করা অসম্ভব কঠিন।
তবু AI-এর অভিযোগ কেন?
এখানেই আসল অ্যাকাউন্টেবিলিটি সংকট। 'AI করেছে' — এটা এখন রাজনৈতিক সুরক্ষা । যেভাবে আগে বলা হতো 'আমি বলিনি', বা 'কনটেক্সট বিকৃত করা হয়েছে' — এখন বলা হচ্ছে 'AI বানিয়েছে।'
মজার কথা, সাধারণ মানুষ ডিপফেক সম্পর্কে যথেষ্ট জানেন না। AI নিয়ে বিতর্ক তৈরি করে সংশয় — এবং সংশয়টাই যথেষ্ট। ভিডিও সত্যি না মিথ্যে— সেটা প্রমাণ করার আগেই ভোট খতম, পয়সা হজম!
তিনটে গল্পে একটা সাধারণ সুতো। মিনাবে: AI ব্যবহার হয়েছিল, কিন্তু সিদ্ধান্ত মানুষ নিয়েছে — কিন্তু কেউ দায় নিচ্ছে না। SIR-এ: AI অ্যালগরিদম ব্যবহার হয়েছে, কিন্তু কোন AI, তার কি ঠিকুজি কি কুষ্ঠি — কিছুই বলা হয়নি, হুমায়ুন কবীরের ভিডিওতে: AI ব্যবহার হওয়ার সম্ভাবনা খুব সামান্য— কিন্তু AI-এর নাম নিয়ে দায় এড়ানোর চেষ্টা হচ্ছে।
তিনটে ক্ষেত্রেই অ্যাকাউন্টেবিলিটি অনুপস্থিত। কারণটা টেকনিকাল নয় — এ হলো কাঠামোগত সমস্যা। আমাদের আইন পুরনো পদ্ধতির। AI এর কাজ কর্মের বিহিত করার জন্য তৈরি নয়। তাই সারা পৃথিবীর রাজনৈতিক চরিত্র AI-এর নাম ব্যবহার করে দায় এড়ানোর সুযোগ পাচ্ছে। যখন কোনো সিষ্টেম — মানুষ চালিত হোক বা মেশিন চালিত — মানুষের ক্ষতি করে, তখন সেই ক্ষতির দায় কে নেবে, কীভাবে নেবে, এবং ভুক্তভোগী কীভাবে প্রতিকার পাবে — এই প্রশ্নের উত্তর স্পষ্ট থাকা উচিত।
মিনাবের মৃত শিশুরা কবরে শুয়েও উত্তর পায়নি। পশ্চিমবঙ্গের ৯১ লাখ ভোটার এখনো উত্তর পাননি। হুমায়ুন কবিরের ভোটাররা জানেন না কাকে বিশ্বাস করবেন।
আর আমরা দুহাতে অবিশ্বাস আর রক্তের দাগ নিয়ে খুঁজতে থাকি এত যন্ত্রণার দায় কেন যন্ত্রের ওপরেই রয়ে গেল!
References
Articles
- Iranian school was on U.S. target list, may have been mistaken as military site | Tara Copp, Souad Mekhennet, Meg Kelly, Alex Horton and Susannah George | The Washington Post | 2026-03-11
- Deadly Iran school strike casts shadow over Pentagon’s AI targeting push | Katie Livingstone | Military Times | 2026-03-25
- When Intelligence Fails: A Legal Targeting Analysis of the Minab School Strike | Joseph N. Orenstein | Just Security | 2026-03-26
- ECI Pulls a U-Turn: Rolls Out Algorithms Midway into SIR Without Protocols, Manual and Written Instructions | Ayushi Kar & Harshitha Manwani | The Reporters’ Collective | 2025-12-28
- ECI misled the Supreme Court on SIR in West Bengal | Ayushi Kar | The Reporters’ Collective | 2026-01-29
- Which agency designed the algorithm for ECI to flag ‘logical discrepancy’? | AJ Prabal | National Herald | 2026-04-13 | 9:16 PM IST
- High-level summary of the AI Act | ___ | EU Artificial Intelligence Act | 2024-02-27
- Annex III: High-Risk AI Systems Referred to in Article 6(2) | ___ | EU Artificial Intelligence Act