
ত্রয়োদশ জাতীয় সংসদ নির্বাচন ঘিরে জমে উঠেছে নির্বাচনে অংশগ্রহণকারী রাজনৈতিক দলগুলোর প্রচার। ভোটারদের সমর্থন পেতে দলগুলো বেছে নিচ্ছে প্রচারণার বিভিন্ন ধরন ও মাধ্যম। সেই তালিকায় এবারে যুক্ত হয়েছে কৃত্রিম বুদ্ধিমত্তা বা এআই। সামাজিক মাধ্যমে অবিকল মানুষের রূপে হাজির হওয়া এআই তাদের পরিচয় দিচ্ছে সাধারণ ভোটার হিসেবে।
এআই চরিত্রগুলো বলছে তারা ভোট দেবে। শুধু তাই নয়, অন্যদেরও তাদের পছন্দের মার্কায় ভোট দিতে আহ্বান জানাচ্ছে। প্রতিপক্ষ রাজনৈতিক দল বা দলের নেতাদের নিয়ে বিষোদগার করতেও দেখা গেছে এসব এআই চরিত্রকে। সাধারণ ব্যবহারকারীদের অনেকেই এদের বাস্তব বা আসল ভেবে বিভিন্ন মন্তব্য করছেন কমেন্ট বক্সে।
সামাজিক মাধ্যমে এ ধরনের কার্যক্রম চালানো এমনই এক ফেসবুক পেজের নাম উত্তরবঙ্গ টেলিভিশন। এই প্রতিবেদন লেখা পর্যন্ত পেজটির ফলোয়ার সংখ্যা ৯০ হাজারের বেশি। “হিউম্যান হেলপ” নামে পেজটি প্রথম তৈরি করা হয় ২০২১ সালের ৩০ অক্টোবর। একই দিনে যা পরিবর্তিত হয়েছে “হেল্প মিশন” নামে। ৩০ ডিসেম্বর তা আবার বদলে গেছে “হম বলো”তে। শেষমেশ ২০২২ সালের ৭ জুলাই পেজটির নাম পরিবর্তন করে রাখা হয় “উত্তরবঙ্গ টেলিভিশন।” পেজটির ট্রান্সপারেন্সি অনুযায়ী সাত জন অ্যাডমিন বাংলাদেশ থেকে এটি পরিচালনা করছেন।

পেজটি থেকে আসন্ন ত্রয়োদশ জাতীয় সংসদ নির্বাচনে জয়পুরহাট-১ আসনের বাংলাদেশ জামায়াতে ইসলামীর মনোনীত প্রার্থী মোঃ ফজলুর রহমান সাঈদের পক্ষে প্রচারণা করতে দেখা যায় (১, ২, ৩)। জয়পুরহাট প্রতিনিধির বরাতে দেয়া ২০২৫ সালের ২৫ ডিসেম্বরে দেওয়া একটি পোস্টে লেখা হয়, “জয়পুরহাট ১ সদর-পাঁচবিবি আসনের সংসদ সদস্য প্রার্থী মোঃ ফজলুর রহমান সাঈদ সম্প্রতি এক বিবৃতিতে দৃঢ়তার সাথে ঘোষণা করেছেন যে, দেশের নেতা দেশেই ছিলেন, দেশেই আছেন এবং ইনশাআল্লাহ দেশেই থাকবেন।” পোস্টে যুক্ত ছবিতেও ফজলুর রহমান সাঈদের পক্ষে প্রচারণামূলক বার্তা দেখা যায়।



ডিসমিসল্যাবের বিশ্লেষণে দেখা যায়, পেজটিতে এআই দিয়ে বানানো সবচেয়ে পুরোনো ভিডিওটি পোস্ট করা হয় ২০২৫ সালের ১৫ ডিসেম্বর। পোস্টের ক্যাপশনে লেখা আছে, “এবার ক্ষমতায় জামায়াতে ইসলাম? জনমত জরিপ ও মানুষের প্রত্যাশা!” ভিডিওতে এক বৃদ্ধ নারী বলছেন, “কোথায় ভোট দিবেন? আমি জামাত ইসলামে ভোট দিমু। নৌকায়ও আমি ভোট দিমু না।” এতটুকু বলার পর অন্যপাশ থেকে কাউকে জিজ্ঞেস করতে শোনা যায়, “কেন ভোট দিবেন না?” উত্তরে বৃদ্ধ নারী বলেন, “আমি দিমু না। যেহেতু শাসন নাই, কোনো আচার নাই, কোনো আদালত নাই। জামায়াতে ইসলাম পাশ করলে কী করবে আপনাকে। জামায়াতে ইসলাম পাশ করলে দেশে শান্তি আসবে, তারা খুবই ভালো।”
ভিডিওটির দৈর্ঘ্য ছিল ২৩ সেকেন্ড। এই প্রতিবেদন লেখা পর্যন্ত ভিডিওটি আড়াই শর বেশি শেয়ার হয়েছে। এখন পর্যন্ত দেখা হয়েছে ১০ হাজারের বেশি। প্রতিক্রিয়া জানানো হয়েছে হাজারের অধিক।
যাচাইয়ে দেখা যায়, ভিডিওর তিন সেকেন্ডে দেখানো বৃদ্ধার ঠোঁট ও নাকের মাঝামাঝি জায়গার চামড়ার ভাজ বা গঠনের সঙ্গে, একই ভিডিওর ১৮ সেকেন্ডে দেখানো চামড়ার ভাজ বা গঠনের হুবহু মিল নেই। পুরো ভিডিওতেই কথা বলার সময় চামড়ার ভাজে অস্বাভাবিক পরিবর্তন ও মসৃণতা লক্ষ্য করা যায়।
পেছনের পোস্টারে থাকা বাংলা অক্ষরের লেখাগুলো বিশ্লেষণ করে দেখা যায়, সেগুলো কোনো অর্থবোধক শব্দ বা বাক্য তৈরি করে না। এছাড়া, পুরো ভিডিওতে কথা বলার সময় একবারের জন্যেও চোখের পলক ফেলেননি তিনি। যা এআই দিয়ে বানানো ভিডিও বা ডিপফেক ভিডিওর উল্লেখযোগ্য লক্ষণ বলে মনে করেন বিশেষজ্ঞরা।
ভিডিওটি গুগলের এআই কন্টেন্ট শনাক্তকারী টুলস সিন্থ-আইডিতে আপলোড করে জানা গেছে, ২৩ সেকেন্ডের ভিডিওটিতে শুরু থেকে শেষ পর্যন্ত ডিজিটাল ওয়াটারমার্ক শনাক্ত করা হয়েছে। কনটেন্টটির অডিও এবং ভিডিও দুটোই এআই ব্যবহার করে তৈরি বা এডিট করা হয়েছে।
একইদিনে (১৫ ডিসেম্বর) পেজটি থেকে আরও চারটি (১, ২, ৩, ৪) ভিডিও পোস্ট করা হয়। সবগুলো ভিডিওতেই রাজনৈতিক দল বাংলাদেশ জামায়াতে ইসলামীর প্রশংসা করতে শোনা যায় বিভিন্ন বয়সের এআই চরিত্রকে। তারা সবাই জামায়াতে ইসলামীর দাঁড়িপাল্লায় ভোট দেবে বলে জানায়।

বিশ্লেষণে দেখা যায়, এই প্রতিবেদন লেখা পর্যন্ত পেজটি থেকে এ ধরনের মোট ৩৫টি ভিডিও পোস্ট করা হয়েছে। এছাড়া প্রতিপক্ষ রাজনৈতিক দলকে নিয়ে দুইটি হাস্য-রসাত্মক কার্টুন কনটেন্টও পোস্ট করা হয়েছে। গত ১৫ ডিসেম্বরের আগে পেজটি থেকে বাংলাদেশ জামায়াতে ইসলামীর বিভিন্ন রাজনৈতিক কর্মকাণ্ড নিয়ে নিয়মিত পোস্ট করা হতো।
একই নাম ও লোগো সম্বলিত একটি ইউটিউব চ্যানেলও খুঁজে পাওয়া গেছে, যেখানে ফেসবুক পেজে পোস্ট হওয়া বেশকিছু ভিডিও আপলোড করা হয়েছে। চ্যানেলটির মোট সাবস্ক্রাইবার সংখ্যা সাত শর অধিক।
উল্লেখ্য, “উত্তরবঙ্গ টেলিভিশন” থেকে প্রথম এমন এআই দিয়ে বানানো ভিডিও আপলোড দেওয়ার তিনদিন আগে (১২ ডিসেম্বর) নির্বাচনের তফসিল ঘোষণা করা হয়। প্রধান নির্বাচন কমিশনার তফসিল ঘোষণার দিনই নির্বাচনে কৃত্রিম বুদ্ধিমত্তার ব্যবহার নিয়ে উদ্বেগ প্রকাশ করেন।
জামায়াতের পক্ষে শুধু সমর্থনই নয়, প্রতিপক্ষ রাজনৈতিক দল ও দলের নেতাদের বিরুদ্ধে মিথ্যা দাবি, নেতিবাচক ও সমালোচনামূলক মন্তব্য করতেও শোনা যায় এআই চরিত্রগুলোকে।
“উত্তরবঙ্গ টেলিভিশন” পেজটির সবচেয়ে বেশি ভিউ হওয়া ভিডিওতেও বাংলাদেশ জাতীয়তাবাদী দলকে (বিএনপি) নিয়ে সমালোচনামূলক মন্তব্য করতে দেখা যায় এক ফল বিক্রেতাকে। এই প্রতিবেদন লেখা পর্যন্ত ভিডিওটি ৮০ লাখের বেশি ভিউ হয়েছে। তিন শ ফিটে বিএনপির একটি আয়োজনকে ঘিরে তাকে বিভিন্ন সমালোচনা করতে শোনা যায়। ভিডিওর দৈর্ঘ্য ছিল ২৮ সেকেন্ড।
এই প্রতিবেদন লেখা পর্যন্ত এতে তিন লাখের বেশি প্রতিক্রিয়া দেখা গেছে। শেয়ার করা হয়েছে ৭০ হাজারের বেশি বার। এছাড়া প্রায় ৬ হাজারের বেশি মানুষ মন্তব্য করেছেন। একজন লিখেছেন “আপনার কথা ১০০% রাইট কিন্তু আমাদের দুর্ভাগ্য জনগণ ভালো খারাপ বুঝেনা।” আরেক ব্যবহারকারী লিখেছেন, “একজন ফল বিক্রেতা যদি রাস্তায় দাঁড়িয়ে গঠনমূলক সত্য কথা বলতে পারে কেন দলীয় লোকেরা পারেনা ? এটা কি শিক্ষা এবং জ্ঞানের অভাব, মোটেও না। এটা হল নৈতিকতার অভাব এবং শক্তি ও ক্ষমতার প্রভাব।” কয়েকজন ব্যবহারকারী ভিডিওটি এআই দিয়ে বানানো বলেও মন্তব্য করেছেন।
যাচাইয়ে দেখা যায়, ভিডিওর ৫ সেকেন্ডে একটি তিন চাকার বাস রাস্তা দিয়ে চলে যাচ্ছে। যার সামনের অংশ দেখতে অনেকটা সিএনজির মতো। আবার ভিডিওর আরেক অংশে দেখা যায়, একটি দুই চাকার রিকশা এগিয়ে যাচ্ছে। যিনি সেটি চালাচ্ছেন তার চোখ নেই ও চেহারা অস্বাভাবিকভাবে বিকৃত।
এছাড়া, ফল বিক্রেতার পেছনে থাকা সাইনবোর্ডের বাংলা অক্ষরগুলোও কোনো অর্থবোধক শব্দ বা বাক্য নির্দেশ করে না।

এটিও গুগলের এআই কন্টেন্ট শনাক্তকারী টুলস সিন্থ-আইডিতে আপলোড করলে জানা যায়, এর অডিও এবং ভিডিও দুটোই এআই ব্যবহার করে তৈরি বা এডিট করা হয়েছে। গুগলের জেমিনি মডেল সিন্থ আইডি জানায়, ২৩ সেকেন্ডের ভিডিওটি শুরু থেকে শেষ পর্যন্ত কৃত্রিম বুদ্ধিমত্তা দিয়ে তৈরি। এছাড়া কনটেন্ট শনাক্তকরণ টুল ডিপফেক-ও-মিটারের যাচাইয়ে দেখা গেছে ভিডিওটি এআই দিয়ে তৈরির সম্ভাবনা প্রবল।
বাদ যাননি বাংলাদেশ জাতীয়তাবাদী দলের বর্তমান চেয়ারম্যান তারেক রহমানও। লন্ডন থেকে দেশে ফেরার একদিন আগে তাকে কটুক্তি করেও পেজটি থেকে একটি এআই ভিডিও পোস্ট করা হয়। ক্যাপশনে লেখা হয়, “২৫ তারিখে খাম্বা লিডার আসছে! খাম্বা চুরি ও কম্পন থেকে বাঁচতে এই ব্যক্তিকে দেখুন।” এই প্রতিবেদন লেখা পর্যন্ত ভিডিওটির ভিউ হয়েছে প্রায় ২০ লাখ। শেয়ার হয়েছে আট হাজার বারের বেশি। ভিডিওটি অনেকেই সত্য ভেবে নিন্দা জানিয়েছেন। কয়েকজন ব্যবহারকারী এ ভিডিও এআই দিয়ে বানানো বলেও মন্তব্য করেছেন।
যাচাইয়ে দেখা যায়, ভিডিওতে বলা কথার সঙ্গে দাঁড়িয়ে থাকা ব্যক্তির ঠোটের নড়াচড়ার মিল নেই। ভিডিওর দৃশ্য অনেক স্পষ্ট হলেও দাঁড়িয়ে থাকা ওই ব্যক্তির চোখের দিকটা পুরোপুরি অন্ধকার।
ভিডিওটি এআই দিয়ে বানানো কিনা তা জেমিনাইর সিন্থ-আইডি মডেলে পরীক্ষা করা হয়। এতে দেখা যায় ভিডিওর দৃশ্য ও অডিও দুটোই এআই দিয়ে সম্পাদিত বা বানানো। এছাড়াও, কনটেন্ট শনাক্তকরণ টুল ডিপফেক-ও-মিটার বলছে ভিডিওটি এআই দিয়ে তৈরির সম্ভাবনা প্রায় শতভাগ।
গত ১০ জানুয়ারি পোস্ট হওয়া ১৮ সেকেন্ডের একটি ভিডিওতে একজন প্রতিবন্ধী নারীকে বলতে শোনা যায়, “আমি একজন প্রতিবন্ধী মানুষ, বিএনপি নেতারা আমাকে প্রতিবন্ধী ভাতা করে দিতে চেয়ে টাকা নিয়েছে। কিন্তু তারা আমাকে কার্ডটি করে দেয়নি। এখন টাকা ফেরত চাইলে আমাকে হুমকি দেয়। আবার বলে টাকা দিসি এই কথা যেন কেউ না জানে। আমি এই ঘুষখোর বিএনপি দলকে ভোট দিব না। ভোট যদি দিতেই হয় দাঁড়িপাল্লা মার্কাতেই দেব ইনশাল্লাহ।”
এই প্রতিবেদন লেখা পর্যন্ত ভিডিওটি ৮ লাখের বেশি ভিউ হয়েছে। ৪০ হাজারের অধিক প্রতিক্রিয়া দেখা গেছে। শেয়ার করা হয়েছে ১৯ হাজারের বেশি বার। এছাড়া পোস্টটিতে এক হাজারের বেশি মন্তব্য করা হয়েছে। এআই চরিত্রটিকে একজন বোন সম্বোধন করে লিখেছেন, “বোন তোমাকে ধন্যবাদ আললাহ তোমাকে হেফাজত করুন আমিন আমিন আমিন দাঁড়ি পাল্লা হবে ইনশাআল্লাহ।” আরেকজন লিখেছেন, “মাশাল্লাহ বোন মাশাল্লাহ জিতবে এবার দাঁড়িপাল্লা ইনশাল্লাহ আল্লাহ তোমাকে হেফাজত করুক দোয়া করি।” এছাড়া কয়েকটি মন্তব্যে ভিডিওটি এআই দিয়ে বানানো বলেও দাবি করেছেন অনেক।
গত ১২ জানুয়ারি ডিজিটাল অনুসন্ধানমূলক সংবাদমাধ্যম “দ্য ডিসেন্ট” -এর ওয়েবসাইটে প্রকাশিত এক ফ্যাক্টচেক প্রতিবেদনে নিশ্চিত করা হয়, প্রতিবন্ধী ভাতার নামে বিএনপি নেতাদের প্রতারণা দাবিতে প্রচারিত এই ভিডিওটি এআই দিয়ে তৈরি।
জামায়াতে ইসলামীর পক্ষে হিন্দু ধর্মাবলম্বী ভোটারদের অকুণ্ঠ সমর্থন রয়েছে দেখাতেও বানানো হয়েছে এআই ভিডিও। যেখানে “হিন্দু ধর্মাবলম্বী” হিসেবে উপস্থাপন করা হয়েছে বিভিন্ন এআই চরিত্রদের। এমন একাধিক চরিত্র আগামী নির্বাচনে দাঁড়িপাল্লায় ভোট দেবেন বলে মনস্থির করার কথা জানিয়েছেন।
গত ৮ জানুয়ারি এ ধরনের একটি ভিডিও আপলোড হতে দেখা যায় “উত্তরবঙ্গ টেলিভিশন” থেকে। ক্যাপশনে লেখা হয়েছে, “আমরা হিন্দুরা এবার দাঁড়িপাল্লাতেই ভোট দেবো: কেন বিএনপিকে বর্জন?” ভিডিওতে ধুতি পরা এক বয়স্ক লোককে বলতে শোনা যায়, “আমরা হিন্দুরা দাঁড়িপাল্লায় ভোট দিমু। বিএনপি মিথ্যা আশ্বাস দিয়ে ভোট চাইতেছে। যতই আমাদের লোভ দ্যাহাক না কেন, আমরা বিএনপির ফাঁদে পা দিচ্ছি না এবার। একমাত্র দাঁড়িপাল্লা সরকার হইলেই দ্যাশ শান্তিতে থাকবে, এছাড়া সম্ভব নয়। বিএনপি তো নিজেদের মধ্যেই মারামারি করে, নিজেদের মধ্যেই দশটা গ্রুপ। তারা কীভাবে দেশের শান্তি ফিরিয়ে নিয়ে আসবে। বরং ক্ষমতায় তারা গেলে ক্ষমতার বলে সাধারণ মানুষকে মানুষ মনে করবে না তারা।”
ভিডিওটির দৈর্ঘ্য ছিল ২০ সেকেন্ড। এই প্রতিবেদন লেখা পর্যন্ত ভিডিওটি ১৬ লাখের বেশিবার দেখা হয়েছে। এক লাখের বেশি প্রতিক্রিয়া ছিল। শেয়ার হয়েছে ২০ হাজারের বেশি বার। পোস্টটিতে দেড় হাজারের বেশি কমেন্ট করা হয়েছে। কমেন্টে একজন লিখেছেন, “সঠিক কথা বলছেন কাকা। চান্দাবাজ মুক্ত ধান্দাবাজ মুক্ত দেশ গড়তে বাংলাদেশ জামাত ইসলামের বিকল্প নেই।” আরেকজন লিখেছেন, “রাইট কাকা অনেক সুন্দর কথা বলেছেন আপনাকে ধন্যবাদ আমরাও হায়াতে বেঁচে থাকলে ইনশাআল্লাহ দাড়িপাল্লায় ভোট দেবো।” এআই চরিত্রকে সম্বোধন করে একজন মন্তব্য করেছেন, “একদম সঠিক কথাই বলেছেন দাদা। আপনাকে অনেক ধন্যবাদ সাহসী ভূমিকার জন্য। সাবধান থাকতে হবে।”
যাচাইয়ে দেখা যায়, ভিডিওর এক অংশে জামায়াতের জনৈক হিন্দু সমর্থকের কপালে ভাজ কম, আবার আরেক অংশে বেশি। হাত নাড়ানোর সময় একটি আঙুল কিছুটা বিকৃত হয়ে যেতে দেখা যায়। এছাড়া অধিকাংশ ক্ষেত্রেই ভিডিওতে উচ্চারিত শব্দের সঙ্গে তার ঠোঁটের ভঙ্গিমার মিল নেই।
ভিডিওটি প্রসঙ্গে জেমিনির সিন্থ-আইডি বলছে, এটিতেও গুগলের সিন্থ-আইডি ওয়াটারমার্ক পাওয়া গেছে। অর্থাৎ, এটিও কৃত্রিম বুদ্ধিমত্তা দিয়ে তৈরি। এছাড়া কনটেন্ট শনাক্তকরণ টুল ডিপফেক-ও-মিটার দিয়ে যাচাই করে দেখা গেছে ভিডিওটি এআই দিয়ে তৈরির সম্ভাবনা প্রবল।
দক্ষিণ-পূর্ব এশিয়ার নির্বাচনী ব্যবস্থা নিয়ে ‘ফ্রন্টিয়ার্স ইন পলিটিক্যাল সায়েন্স’ জার্নালে ২০২৫ সালের অক্টোবরে একটি গবেষণা প্রকাশিত হয়েছে। গবেষক শাফিনদ্রি ও তার দল সেখানে দেখিয়েছেন, এআই দিয়ে তৈরি ভিডিওগুলো নির্বাচনের সুষ্ঠু পরিবেশের জন্য বড় হুমকি হয়ে উঠছে। এসব ভিডিও ব্যবহার করে রাজনৈতিক নেতাদের নামে এমন সব ভুয়া গল্প ছড়ানো হচ্ছে, যা ভোটাররা সত্য বলে ধরে নিচ্ছেন। এতে মুহূর্তেই জনমত প্রভাবিত হওয়ার ঝুঁকি তৈরি হয়েছে। গবেষণাটি থেকে আরও জানা যায়, ফিলিপাইন ও থাইল্যান্ডের নির্বাচনে এআই চালিত ‘বট’ ব্যবহার করে প্রতিপক্ষের বিরুদ্ধে পরিকল্পিতভাবে ভুয়া তথ্য ছড়ানো হয়েছে।
এআই দিয়ে বানানো এসব ভিডিও বাংলাদেশের ভোটারদের প্রভাবিত করতে পারে কি না, এ বিষয়ে জানতে চাওয়া হয়েছিল যুক্তরাষ্ট্রের সেন্টার ফর এক্সপেরিমেন্টাল হিউম্যানিটিজ বার্ড কলেজের ভিজিটিং অধ্যাপক ফাহমিদুল হকের কাছে। তার মতে, “ভোটারদের বিভ্রান্ত হওয়ার সুযোগ তো আছেই। বিশেষ করে যদি কেউ শুধু একটি কনটেন্ট দেখে, সুযোগ আছে। ফলে, এতে ভোটারদের প্রভাবিত হওয়ার সুযোগ আছে এবং এটি আশঙ্কার বিষয়ও বটে।”
গত ১২ ডিসেম্বর প্রধান নির্বাচন কমিশনার (সিইসি) এ এম এম নাসির উদ্দিন জাতির উদ্দেশ্যে ভাষণ দেওয়ার সময় নির্বাচনে কৃত্রিম বুদ্ধিমত্তার (এআই) ব্যবহার ও অসত্য তথ্য ছড়ানো বিষয়ে কথা বলেন।
তিনি বলেন, “বর্তমান সময় সামাজিক যোগাযোগ মাধ্যমে বিভিন্ন বিভ্রান্তিমূলক তথ্য ছড়ানো হয়ে থাকে। বিশেষ করে কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে অসত্য তথ্য ও অপতথ্যের বিস্তার দিনকে দিন বেড়ে চলেছে। প্রতিপক্ষ দল ও প্রার্থীকে হেয় করার পাশাপাশি নারীদের প্রতি বিদ্বেষমূলক প্রচারণা আমাদের ঐতিহ্যকে ক্ষুণ্ন করে এবং নির্বাচনকে কলুষিত করে। দেশের প্রচলিত আইন অনুযায়ী এসব রোধে প্রয়োজনীয় ব্যবস্থা গ্রহণ করা হবে। আপনাদের প্রতি আমার বিশেষ অনুরোধ অসত্য এবং অসৎ উদ্দেশ্যে প্রচারিত কোন তথ্যে কান দিবেন না, গ্রহণ করবেন না। মনে রাখবেন অসত্য তথ্য শেয়ার করাও শাস্তিযোগ্য অপরাধ।”
এছাড়াও, জাতীয় সংসদ নির্বাচনে রাজনৈতিক দল ও প্রার্থীর আচরণ বিধিমালা, ২০২৫-এ কৃত্রিম বুদ্ধিমত্তা বা এআই-এর অপব্যবহার রোধে কিছু নির্দেশনা যুক্ত করেছে নির্বাচন কমিশন। এতে ‘সামাজিক যোগাযোগ মাধ্যমে নির্বাচনি প্রচারণা’ সংক্রান্ত ১৬ নম্বর ধারায় এ বিষয়ে বিস্তারিত উল্লেখ করা হয়েছে।
এছাড়া, জাতীয় সংসদ নির্বাচনে রাজনৈতিক দল ও প্রার্থীর আচরণ বিধিমালা, ২০২৫-এ কৃত্রিম বুদ্ধিমত্তা বা এআই-এর অপব্যবহার রোধে কিছু নির্দেশনা যুক্ত করেছে নির্বাচন কমিশন। এতে ‘সামাজিক যোগাযোগ মাধ্যমে নির্বাচনি প্রচারণা’ সংক্রান্ত ১৬ নম্বর ধারায় এ বিষয়ে বিস্তারিত উল্লেখ করা হয়েছে।
বিধিমালার ১৬(খ) উপধারায় স্পষ্টভাবে বলা হয়েছে, “প্রচার-প্রচারণাসহ নির্বাচন সংশ্লিষ্ট কোনো বিষয়ে অসৎ উদ্দেশ্যে কৃত্রিম বুদ্ধিমত্তা (AI) ব্যবহার করা যাবে না।”
বিষয়টি আরও বিশদভাবে ব্যাখ্যা করা হয়েছে ১৬(ছ) উপধারাতে। সেখানে বলা হয়েছে, রাজনৈতিক দল, প্রার্থী কিংবা তাদের পক্ষে অন্য কোনো ব্যক্তি ভোটারদের বিভ্রান্ত করার জন্য অথবা নারী-পুরুষ নির্বিশেষে কোনো প্রার্থী বা ব্যক্তির চরিত্র হনন ও সুনাম নষ্ট করার উদ্দেশ্যে এআই ব্যবহার করতে পারবেন না। বিশেষ করে সামাজিক যোগাযোগ মাধ্যম বা অন্য কোনো মাধ্যমে সাধারণভাবে বা সম্পাদনা (Edit) করে কিংবা কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে কোনো মিথ্যা, বিভ্রান্তিকর, পক্ষপাতমূলক, বিদ্বেষপূর্ণ, অশ্লীল, কুরুচিপূর্ণ এবং মানহানিকর কোনো কনটেন্ট (আধেয়) তৈরি, প্রকাশ, প্রচার ও শেয়ার করাকে এই বিধিমালার মাধ্যমে সম্পূর্ণ নিষিদ্ধ করা হয়েছে।
সামাজিক মাধ্যমে প্রচারিত এ ধরণের ভিডিওর ক্ষেত্রে নির্বাচন কমিশন কী ধরনের পদক্ষেপ নিতে পারে জানতে চেয়ে প্রতিষ্ঠানটির একাধিক কর্মকর্তার সঙ্গে যোগাযোগের চেষ্টা করে ডিসমিসল্যাব। তবে এ বিষয়ে নির্বাচন কমিশনের পক্ষ থেকে কোনো উত্তর পাওয়া যায়নি।
প্রযুক্তির উন্নতির সঙ্গে সঙ্গে কৃত্রিম বুদ্ধিমত্তা বা এআই দিয়ে তৈরি ভিডিও এতটাই নিখুঁত হচ্ছে, অনেক সময় আসল আর নকলের পার্থক্য করা কঠিন হয়ে দাঁড়ায়। তবে সাধারণ কিছু বিষয় খেয়াল করলেই এই ‘ডিপফেক’ ভিডিও শনাক্ত করা সম্ভব। যুক্তরাষ্ট্রের এমআইটি মিডিয়া ল্যাব এবং ইউরোপভিত্তিক সাইবার নিরাপত্তা প্রতিষ্ঠান ‘সোসেফ’-এর প্রকাশিত নিবন্ধে এ বিষয়ে সাধারণ মানুষের জন্য বেশ কিছু পরামর্শ দেওয়া হয়েছে।
১) উৎস যাচাই ও রিভার্স সার্চ: কোনো ভিডিও দেখে সন্দেহ হলে প্রথমেই এর উৎস যাচাই করতে হবে। ভিডিওটি কে পোস্ট করেছে? কোনো বিশ্বাসযোগ্য গণমাধ্যম, নাকি অপরিচিত কোনো সোশ্যাল মিডিয়া অ্যাকাউন্ট? যেমন, কোনো বিখ্যাত ব্যক্তির ভিডিও তার ভেরিফায়েড পেজের বদলে কোনো ফ্যান পেজ থেকে এলে তা সন্দেহের তালিকায় রাখতে হবে। প্রয়োজনে ভিডিওর একটি স্ক্রিনশট নিয়ে গুগলে ‘রিভার্স ইমেজ সার্চ’ করে এর আসল উৎস খুঁজে পাওয়া যেতে পারে।
২) অস্বাভাবিক চোখের পলক ও আলোর প্রতিফলন: ভিডিওর চরিত্রটি স্বাভাবিক নিয়মে চোখের পলক ফেলছে কি না, তা খেয়াল করতে হবে। এআই ভিডিওতে অনেক সময় চরিত্ররা অস্বাভাবিক দ্রুত পলক ফেলে অথবা মোটেও পলক ফেলে না। এছাড়া ভিডিওর ব্যক্তি যদি চশমা পরা থাকেন, তবে চশমায় আলোর প্রতিফলন ঠিক আছে কি না সেদিকেও খেয়াল রাখতে হবে। মাথা ঘোরানোর সঙ্গে সঙ্গে আলোর প্রতিফলন প্রাকৃতিকভাবে পরিবর্তিত না হলে সেটি নকল হতে পারে।
৩) ত্বক ও চুলের অসংগতি: এআই ভিডিওতে মানুষের মুখের ত্বক সাধারণত অতিরিক্ত মসৃণ বা অনেকটা ‘প্লাস্টিকের মতো’ দেখায়। এমআইটির তথ্যানুসারে, বয়সের সঙ্গে ত্বকের ভাঁজ বা দাগগুলো এআই অনেক সময় ফুটিয়ে তুলতে পারে না। সোসেফ-এর মতে, চুলের দিকেও নজর দেওয়া উচিত। মানুষের চুল সাধারণত পুরোপুরি নিখুঁত বা পরিপাটি থাকে না, কিছু চুল এলোমেলো (flyaway hair) থাকে। কিন্তু এআই ভিডিওতে চুল অনেক সময় অস্বাভাবিকভাবে গোছানো মনে হতে পারে।
৪) ঠোঁট ও কণ্ঠস্বরের অমিল: ভিডিওর অডিওর সঙ্গে ঠোঁটের নড়াচড়া বা ‘লিপ-সিঙ্ক’ মিলছে কি না, তা গভীরভাবে পর্যবেক্ষণ করতে হবে। সোসেফ-এর নির্দেশিকা বলছে, ডিপফেক ভিডিওতে কথা বলার সময় ঠোঁটের নড়াচড়া কৃত্রিম মনে হতে পারে। অনেক সময় অডিওতে যান্ত্রিক বা রোবোটিক ভাব থাকে এবং ব্যাকগ্রাউন্ডে অদ্ভুত শব্দ শোনা যেতে পারে।
৫) শারীরিক নড়াচড়া: ভিডিওতে ব্যক্তির নড়াচড়া যদি রোবটের মতো জড়সড় মনে হয় অথবা ভিডিওর কোনো অংশ ঝাপসা দেখায়, তবে তা সন্দেহের চোখে দেখতে হবে। গবেষকরা বলছেন, প্রযুক্তি উন্নত হলেও মানুষের প্রাকৃতিক নড়াচড়া হুবহু নকল করতে এআই এখনো পুরোপুরি সক্ষম নয়।
এছাড়া, কোনো নির্দিষ্ট সোশ্যাল মিডিয়া অ্যাকাউন্টে ক্রমাগত একই দৈর্ঘ্যের ও একই ধরনের ভিডিও আপলোড করা হলে সেটিও সন্দেহের তালিকায় রাখা যেতে পারে। ভিডিওর মধ্যে কোনো কাটপিছ আছে কি না সেদিকেও খেয়াল রাখতে পারেন ব্যবহারকারীরা। ভিডিওর চরিত্রগুলোর ধরন সবসময় একইরকম হলে এবং হাই পিচে হলে সেগুলোও সন্দেহের তালিকায় রাখা যেতে পারে।
নির্বাচনের এই সময়ে সামাজিক যোগাযোগ মাধ্যমে ছড়ানো ভিডিওর ব্যাপারে সতর্ক হওয়ার পরামর্শ দিয়েছেন ফাহমিদুল হক। তিনি বলেন, “দর্শকের প্রতি আমার পরামর্শ থাকবে এই ভিডিওগুলোর পেছনে সাইনবোর্ড বা পোস্টারগুলো একটু পাঠ করে দেখবেন সেটি আসলেই বাংলার মতো দেখাচ্ছে কি না। ভিডিওর পরিবেশ বাংলাদেশের বাস্তবতার সঙ্গে মিলে কি না। এইসব বিষয় যাচাই করে দেখা উচিত।”