ডিসমিসল্যাব

অফিসিয়াল ডেস্ক
এআই দিয়ে তৈরি ভুয়া মামলা ঢুকছে আদালতে, পরিণাম ভয়াবহ
This article is more than 1 month old

এআই দিয়ে তৈরি ভুয়া মামলা ঢুকছে আদালতে, পরিণাম ভয়াবহ

ডিসমিসল্যাব
অফিসিয়াল ডেস্ক

আমরা ডিপফেক দেখেছি, দেখেছি কৃত্রিম বুদ্ধিমত্তা (এআই) দিয়ে তৈরি সেলিব্রিটি তারকাদের আপত্তিকর ছবি। গান তৈরি, চালকবিহীন রেস গাড়ি চালানো, এমনকি ভুয়া তথ্য ছড়ানোসহ অনেক কিছুতেই ভূমিকা রেখেছে এআই।

এ সময়ে এসে এও অবাক করে না যে, এআই আমাদের আইনি ব্যবস্থায়ও বড় প্রভাব ফেলার মতো জায়গায় রয়েছে। 

এটা খুব জানা কথা যে, আদালতকে অবশ্যই আইনের ভিত্তিতে বিরোধ নিষ্পত্তি করতে হবে, আর বাদী-বিবাদী পক্ষের হয়ে মামলা উপস্থাপন করেন আইনজীবী। তাই এআই দিয়ে তৈরি ভুয়া আইন যখন আইনি মীমাংসায় ব্যবহৃত হচ্ছে, তখন তা সত্যিই উদ্বেগজনক।

এই অবস্থা কেবল আইন এবং নৈতিকতা নিয়ে প্রশ্ন উত্থাপন করে না বরং বিশ্বব্যাপী আইনি ব্যবস্থার উপর বিশ্বাস ও আস্থা নষ্ট হওয়ার ঝুঁকিও তৈরি করে।

ভুয়া আইন কীভাবে দৃশ্যপটে?

নিঃসন্দেহে জেনারেটিভ এআই একটি শক্তিশালী হাতিয়ার যা আইনি ব্যবস্থার নানাদিকসহ গোটা সমাজকে পরিবর্তন করার ক্ষমতা রাখে। কিন্তু এর ব্যবহার একইসঙ্গে দায়িত্ব ও ঝুঁকির বিষয়টি সামনে নিয়ে আসে।

আইনজীবীরা সতর্কভাবে তাদের পেশাদার জ্ঞান প্রয়োগ করেন এবং অভিজ্ঞতার উপর নির্ভর করেন। সাধারণত তারা কোনো বড় ঝুঁকি নিতে চান না। কিন্তু, অসতর্ক কিছু আইনজীবী (এবং নিজের মামলা নিজে লড়ছেন এমন ব্যক্তিদের অনেকে) কৃত্রিম বুদ্ধিমত্তার ফাঁদে পড়েছেন। 

এআই মডেলগুলোকে বিস্তর ডেটা দিয়ে প্রশিক্ষিত করা হয়। ব্যবহারকারী কোনো নির্দেশ দিলে তারা নতুন কনটেন্ট তৈরি করতে পারে (টেক্সট ও অডিওভিজ্যুয়াল দুধরনের কনটেন্টই)। 

প্রশিক্ষণের ডেটা যখন অপর্যাপ্ত বা ত্রুটিপূর্ণ হয়, তখন এআই ফাঁকগুলো নিজে থেকেই পূরণ করার চেষ্টা করে। এর ফলে ভুয়া তথ্য বা অসঙ্গতির উৎপত্তি ঘটে, যা “হ্যালুসিনেশন” নামে পরিচিত।

কিছু প্রেক্ষাপট আছে জেনারেটিভ এআই হ্যালুসিনেশন কোনো সমস্যা নয়। বরং, একে সৃজনশীলতার নজির হিসেবেই দেখা যেতে পারে।

কিন্তু এআই যদি এমন মনগড়া জিনিস বানায় বা ভুয়া কনটেন্ট তৈরি করে যা পরবর্তী সময়ে আইনি প্রক্রিয়ায় ব্যবহার করা হয়, তাহলে তখন তা বড় সমস্যা বই কি! আইনজীবীরা বিশেষ করে সময় স্বল্পতার কারণে এবং অন্যান্য মানুষ পর্যাপ্ত আইনি পরিষেবার অনুপস্থিতিতে এমন কনটেন্ট নিচ্ছেন।

এই দুইয়ে মিলে এমন একটা পরিস্থিতি তৈরি হতে পারে যেখানে আইনি গবেষণা ও নথি তৈরির কাজটিতেও তাড়াহুড়ো করা হবে, খোঁজা হবে শর্টকাট পদ্ধতি। এর ফলে আইনি পেশার সুনাম ক্ষতিগ্রস্ত হতে পারে, এমনকি বিচার ব্যবস্থার উপর থেকেও মানুষ আস্থা হারাতে পারে। 

ভুয়া কেস তৈরি করেছেও

জেনারেটিভ এআই দিয়ে “ভুয়া কেস” তৈরির একটি উল্লেখযোগ্য উদাহরণ হলো ২০২৩ সালের “মেটা বনাম আভিয়াঙ্কা” মামলা। এই মামলা চলাকালে আইনজীবীরা নিউইয়র্কের একটি আদালতে ভুয়া তথ্য ও উদ্ধৃতিসহ আইনি নথি জমা দেন। নথিটি তৈরি করা হয়েছিল চ্যাটজিপিটি দিয়ে গবেষণার মাধ্যমে।

এই আইনজীবীরা এ ব্যাপারে সচেতনই ছিলেন না যে চ্যাটজিপিটি হ্যালুসিনেট করা তথা মনগড়া জিনিস বানাতে পারে। ফলে চ্যাটজিপিটির তৈরি মামলাগুলোর অস্তিত্ব আদৌ আছে কিনা তা তারা আর যাচাই করেননি। এর পরিণতি হয় ভয়াবহ। বিষয়টি জানাজানি হওয়ার পর আদালত মামলাটিই খারিজ করে দেয়। অসৎ উদ্দেশ্য নিয়ে কাজ করার কারণে আইনজীবীদের শাস্তি দেওয়া হয়, করা হয় জরিমানা। একইসঙ্গে তাদের এই কাণ্ড জনসাধারণের নজরে আনা হয়।

এই ধরনের ঘটনা ঘিরে নেতিবাচক প্রতিক্রিয়া সৃষ্টির মাঝখানে ভুয়া মামলার আরও উদাহরণ সামনে এসেছে। উদাহরণস্বরূপ, ডোনাল্ড ট্রাম্পের প্রাক্তন আইনজীবী হিসেবে পরিচিত মাইকেল কোহেন নিজের আইনজীবীকে আরেক জেনারেটিভ এআই চ্যাটবট গুগল বার্ড দিয়ে তৈরি করা মামলা সরবরাহ করেছিলেন। কোহেনের মনে হয়েছিল মামলাগুলো সব সত্যি (সেগুলো সত্য মামলা ছিল না)। তিনি আশা করেছিলেন যে তার আইনজীবী মামলাগুলোর সত্যতা যাচাই করবেন, কিন্তু তিনিও তা করেননি। ফলস্বরূপ, এই জাল মামলাগুলো মার্কিন ফেডারেল আদালতে সংক্ষিপ্ত আইনি বিবরণের সঙ্গে জমা পড়ে।

কানাডা এবং যুক্তরাজ্যেও সম্প্রতি জাল মামলার বিষয়টি সামনে এসেছে।

এমনটি যদি চলতেই থাকে, তাহলে জেনারেটিভ এআইয়ের অসতর্ক ব্যবহারের কারণে আইনি ব্যবস্থায় মানুষের আস্থা যে হারাবে না তার নিশ্চয়তা কী? আইনজীবীরা যদি লাগাতার এই ভুল করে চলেন এবং এই টুলগুলো ব্যবহারে সতর্ক না হন, তাহলে আদালতে বিভ্রান্তি ও সমস্যার সৃষ্টি হতে পারে, মানুষ ক্ষতিগ্রস্ত হতে পারে এবং বিচার ব্যবস্থাও হতে পারে প্রশ্নবিদ্ধ।

কীভাবে থামানো যায়?

আইনি পেশায় জেনারেটিভ এআইয়ের ব্যবহার মোকাবেলায় বিশ্বজুড়ে বিভিন্ন আইনি নিয়ন্ত্রক সংস্থা ও আদালত বিভিন্ন পন্থা বের করেছে।

মার্কিন যুক্তরাষ্ট্রে বেশ কয়েকটি রাষ্ট্রীয় বার ও আদালত জেনারেটিভ এআই ব্যবহারের বিষয়ে বিভিন্ন নির্দেশনা, মতামত ও আদেশ জারি করেছে। দায়িত্বশীলতার সঙ্গে এআই ব্যবহার করার পরামর্শ থেকে শুরু করে কোথাও কোথাও এর ব্যবহার সম্পূর্ণ নিষিদ্ধ করার কথাও সেগুলোতে বলা হয়েছে।

যুক্তরাজ্য ও ব্রিটিশ কলাম্বিয়ার আইন সমিতি এবং নিউজিল্যান্ডের আদালতও জেনারেটিভ এআই ব্যবহার সংক্রান্ত নির্দেশিকা তৈরি করেছে৷

অস্ট্রেলিয়ায় নিউ সাউথ ওয়েলস (এনএসডব্লিউ) বার অ্যাসোসিয়েশনের আইনজীবীদের জন্য একটি জেনারেটিভ এআই সহায়কপুস্তক রয়েছে। এছাড়া এনএসডব্লিউ সোসাইটি এবং ভিক্টোরিয়া ল ইনস্টিটিউট আইনজীবীদের আচরণ সংক্রান্ত নীতিমালার সঙ্গে এআইয়ের দায়িত্বশীল ব্যবহারের উপর জোর দিয়ে নিবন্ধ প্রকাশ করেছে।

সাধারণ মানুষসহ অনেক আইনজীবী ও বিচারকেরই জেনারেটিভ এআই সম্পর্কে প্রাথমিক ধারণা রয়েছে এবং তারা এর সীমাবদ্ধতা ও সুবিধা দুই বিষয়েই সচেতন। কিন্তু এমন ব্যক্তিও রয়েছেন, যারা এগুলো সম্পর্কে হয়তো অবগত নন। এসব ক্ষেত্রে কোনো একটি নির্দেশিকা থাকা নিশ্চিতভাবেই সহায়ক ভূমিকা পালন করবে।

কিন্তু কিছু বাধ্যতামূলক নির্দেশনা অবশ্যই থাকতে হবে। যারা জেনারেটিভ এআই টুল ব্যবহার করবেন তারা কিছুতেই এআইকে নিজেদের বিবেচনাবোধ ও সাবধানতার বিকল্প বানাবেন না এবং তারা যে তথ্য পাবেন সেগুলোর সঠিকতা ও নিরাপত্তাও যাচাই করতে হবে।

জেনারেটিভ এআই কোন পরিস্থিতিতে ব্যবহার করা যাবে- অস্ট্রেলিয়ার আদালতগুলোতে সেই নির্দেশিকা বা নীতিমালা প্রবর্তন করতে হবে। যারা নিজেদের মামলা নিজেরা পরিচালনা করবেন নির্দেশনা থাকা উচিত তাদের  জন্যও। একইসঙ্গে এধরনের সমস্যা সম্পর্কে আদালত যে অবগত এবং তা সমাধানেও যে তারা সচেষ্ট এ বিষয়ে জনসাধারণকে আশ্বস্ত করা উচিত। 

আইনজীবীদের দায়িত্বশীলতার সঙ্গে এআই ব্যবহারকে উৎসাহিতও করা যেতে পারে আইনী পেশায় এর আনুষ্ঠানিক নির্দেশনা অনুসরণ করার মাধ্যমে। অন্ততপক্ষে, অস্ট্রেলিয়ায় আইনজীবীদের আইনি শিক্ষা চালিয়ে নেওয়ার ক্ষেত্রে প্রযুক্তিগত দক্ষতা অর্জন বাধ্যতামূলক করা উচিত।

এআই ব্যবহারের ক্ষেত্রে অস্ট্রেলিয়ায় আইনজীবীদের দায়িত্বশীলতা ও নৈতিকতার  চর্চার সুস্পষ্ট বাধ্যবাধকতা যদি থাকে তাহলে সঠিকভাবে এর প্রয়োগের প্রতি আগ্রহ বাড়বে। এর ফলে আমাদের আইনজীবী, আদালত এবং দেশের সামগ্রিক বিচারব্যবস্থার প্রতি জনগণের আস্থা বৃদ্ধি পাবে।


এই লেখাটি প্রথম প্রকাশিত হয়েছিল দ্য কনভারসেশন-এ। ক্রিয়েটিভ কমন্স লাইসেন্সের অধীনে পুনরায় এখানে প্রকাশ করা হলো। বাংলায় অনুবাদ করেছেন তামারা ইয়াসমীন তমা।

আরো কিছু লেখা