সেই ২০০০ সাল থেকে স্বচ্ছতার সাথে পথচলা...

May 16, 2026 3:36 pm

দুশ্চিন্তা বাড়াচ্ছে এআই 

প্রযুক্তির উৎকর্ষতায় দৈনন্দিন জীবনের সব ক্ষেত্রে বেড়েছে আর্টিফিশিয়াল ইন্টেলিজেন্স (এআই) বা কৃত্রিম বুদ্ধিমত্তার ব্যবহার। ভালো কাজের পাশাপাশি নেতিবাচক কাজেও ব্যবহার বেড়েছে এ প্রযুক্তির। বিশেষ করে সামাজিক মাধ্যমে বিভ্রান্তি, অপতথ্য ও গুজব ছড়ানোর অন্যতম হাতিয়ার হয়ে উঠেছে ‘এআই’। প্রযুক্তির সহজলভ্যতায় ব্যবহারকারীদের হাতে হাতে পৌঁছে গেছে কৃত্রিম বুদ্ধিমত্তা। ফলে শুধু একটি স্মার্টফোন দিয়েই খুব নিখুঁতভাবে তৈরি করছে ফেক ছবি ও ভিডিও কনটেন্ট। আর এসব ভুয়া ছবি ও কনটেন্ট সহজেই বিশ্বাস করে সামাজিক মাধ্যমে লাইক, কমেন্ট ও শেয়ার করছে প্রযুক্তি সম্পর্কে কম জানা ব্যবহারকারীরা। ফলে সামাজিক মাধ্যমে বাড়ছে অস্থিরতা। দ্রুতই ছড়িয়ে পড়ছে অপতথ্য বা ভুয়া তথ্য। এর মধ্য দিয়ে মানুষের বিশ্বাসেও চিড় ধরতে শুরু করেছে।

প্রযুক্তিবিদরা বলছেন, ২০১৮ সালে জেনারেটিভ এআইয়ের ব্যবহার শুরু হলেও গত ছয় মাসে এর ভয়াবহতা অনেক বেড়েছে। কারণ হিসেবে তারা বলছেন, প্রযুক্তির উন্নতির ফলে কৃত্রিম বুদ্ধিমত্তার ব্যবহার অনেক বেড়েছে। ডিপফেক ভিডিও তৈরির সব টুলস হাতের নাগালে থাকায় এআইয়ের অপব্যবহার বহুলাংশে বেড়েছে। আর এর জন্য যেমন ব্যবহারকারী দায়ী তেমন সামাজিক যোগাযোগমাধ্যম ফেসবুকও অনেকটা দায়ী।

এআই বা কৃত্রিম বুদ্ধিমত্তা কী?

এআই বা কৃত্রিম বুদ্ধিমত্তা হলো কম্পিউটার বিজ্ঞানের একটি শাখা, যেখানে মেশিন বা সফটওয়্যারকে মানুষের মতো চিন্তা, শেখা এবং সিদ্ধান্ত নেওয়ার ক্ষমতা দেওয়া হয়। এটি ডেটা বিশ্লেষণ, প্যাটার্ন শনাক্তকরণ, ভাষা প্রক্রিয়াকরণ এবং সমস্যা সমাধানের মতো কাজে ব্যবহৃত হয়। এআই মূলত ডেটা থেকে শেখে। এটি মেশিন লার্নিং, ডিপ লার্নিং, বা নিউরাল নেটওয়ার্ক ব্যবহার করে প্যাটার্ন শনাক্ত করে এবং সিদ্ধান্ত নেয়। ইতিবাচক কাজের পাশাপাশি অনেক নেতিবাচক কাজেও এআই প্রযুক্তির ব্যবহার বেড়েছে। এআই দিয়ে ডিপ ফেক ভিডিও তৈরি করে সামাজিকমাধ্যমে এমনভাবে ছড়িয়ে দেওয়া হয়, যা খালি চোখে দেখে বোঝার উপায় নেই যে কোনটা আসল আর কোনটা নকল। সাম্প্রতিক সময়ে ফেসবুক, টিকটক ও ইউটিউবে এমন কিছু ভিডিও ছড়িয়ে পড়েছে, যা বিচার বিশ্লেষণ না করেই সমানে শেয়ার করছেন ব্যবহারকারীরা। আর এসব কারণে সৃষ্ট দ্বন্দ্ব-সংঘাতে অনেক ক্ষেত্রে প্রাণহানির ঘটনাও ঘটছে।

গত ৬ এপ্রিল এআই প্রযুক্তির শিকার হয়ে আত্মহত্যা করেছেন লালমনিরহাটের আদিতমারী উপজেলার দুর্গাপুর ইউনিয়নের সিদ্দিক আলীর মেয়ে সুলতানা পারভীন ওরফে সোহা (২৩)। তার স্বজনদের অভিযোগ, ১০ মাস আগে জাপান প্রবাসী আশরাফুল ইসলাম অনিকের সঙ্গে বিয়ে হয় সোহার। অনিকের বোনের স্বামী পর্তুগাল প্রবাসী মোহাম্মদ নাহিন শেখ এ বিয়ে মেনে নেননি। তাই তিনি পরিকল্পিতভাবে এআই ব্যবহার করে সুলতানার ছবি দিয়ে তৈরি করেন আপত্তিকর ভিডিও। সেই ভিডিও একটি ফেক আইডি থেকে ছড়িয়ে দেন তিনি। প্রথমে সুলতানাকে এবং পরে তার স্বামী অনিককেও পাঠানো হয় সেই ভিডিও। মানসিক নির্যাতন সহ্য করতে না পেরে আত্মহত্যা করেন সোহা। অবশ্য পরে জানা যায়, ভিডিওটি ভুয়া এবং এআই দিয়ে তৈরি।

সম্প্রতি সামাজিকমাধ্যমে বেশ কয়েকটি টকশোর ক্লিপ ছড়িয়ে পড়েছে। সেখানে প্রবাসী জনপ্রিয় সাংবাদিক খালেদ মহিউদ্দিনের সঞ্চালনায় অনুষ্ঠানে অতিথি হিসেবে কখনো স্ক্রিনে অন্তর্বর্তী সরকারের প্রধান উপদেষ্টা ড. মুহাম্মদ ইউনূস ও বিএনপির চেয়ারপারসন খালেদা জিয়াকে দেখানো হয়েছে। আবার আর একটি ভিডিওতে পতিত সাবেক প্রধানমন্ত্রী শেখ হাসিনা ও ড. ইউনূসকে দেখানো হয়েছে। তবে এসব অনুষ্ঠানে শুধু ড. ইউনূসকে একাই কথা বলতে দেখা গেছে। বাকি দুজন চুপ থেকেছেন। সম্প্রতি ড. মুহাম্মদ ইউনূসকে অতিথি করে একটি টকশো করেন খালেদ মহিউদ্দিন। সেই টকশোতে এআইয়ের মাধ্যমে জুড়ে দেওয়া হয়েছে খালেদা জিয়া ও শেখ হাসিনাকে। আর ক্যাপশন দেওয়া হয়েছে, ‘প্রথমবার টকশোতে শেখ হাসিনা ও ড. মুহাম্মদ ইউনূস।’ এমন ক্যাপশন দেখে অনেকেই বিশ্বাস করে সেটি শেয়ারও করেছে। আর এভাবে ক্লিপগুলো সামাজিকমাধ্যমে ছড়িয়ে পড়েছে।

ইসরাইলের প্রধানমন্ত্রী বেনিয়ামিন নেতানিয়াহুর সঙ্গে অন্তর্বর্তী সরকারের প্রধান উপদেষ্টা ড. মুহাম্মদ ইউনূস দাবি করে একটি ছবি সামাজিক যোগাযোগমাধ্যমে ছড়িয়ে পড়ে। তবে রিউমর স্ক্যানার টিমের অনুসন্ধানে জানা যায়, আলোচিত ছবিটি বাস্তব নয়; এটি কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি দিয়ে তৈরি।

সম্প্রতি অন্তর্বর্তী সরকারের আইন, বিচার ও সংসদবিষয়ক মন্ত্রণালয়ের উপদেষ্টা অধ্যাপক ড. আসিফ নজরুলের সঙ্গে অভিনেত্রী আজমেরী হক বাঁধনের একটি ছবি সামাজিক যোগাযোগ মাধ্যমে ছড়িয়ে পড়ে। রিউমর স্ক্যানার টিমের অনুসন্ধানে জানা যায়, আসিফ নজরুলের সঙ্গে অভিনেত্রী আজমেরী হক বাঁধনের ঘনিষ্ঠ মুহূর্তের এ ছবিটি বাস্তব নয়। সালমান মুক্তাদির ও দিশা ইসলাম যুগলের ছবিতে আসিফ নজরুল ও বাঁধনের মুখমণ্ডল প্রতিস্থাপন করে আলোচিত ছবিটি তৈরি করা হয়েছে।

ফ্যাক্ট চেকিং প্রতিষ্ঠান রিউমর স্ক্যানারের সিনিয়র ফ্যাক্টচেকার তানভীর মাহতাব আবীর সময়ের আলোকে বলেন, বাংলাদেশে সাম্প্রতিক সময়ে কৃত্রিম বুদ্ধিমত্তা এবং ডিপফেক প্রযুক্তির অপব্যবহারের ফলে সামাজিক যোগাযোগমাধ্যমে অপপ্রচারের পরিমাণ বেড়েছে। চলতি বছরের জানুয়ারি থেকে গত ২১ এপ্রিল পর্যন্ত রিউমর স্ক্যানার ইন্টারনেটে ছড়িয়ে পড়া ১০১৩টি ভুল তথ্য শনাক্ত করেছে। এর মধ্যে ৪১টিই এআই দিয়ে তৈরি করা ভুয়া কনটেন্ট। এ ছাড়া ডিপফেক প্রযুক্তির ব্যবহার হয়েছে এমন কনটেন্ট শনাক্ত হয়েছে ১০টি।

এআইয়ের ব্যবহার বৃদ্ধির কারণ হিসেবে তিনি বলেন, প্রযুক্তির সহজলভ্যতাই এটির মূল কারণ। যে কেউ ঘরে বসেই খুব কম সময়ের মধ্যে এখন বিনামূল্যের বিভিন্ন ওয়েবসাইটের মাধ্যমে এআই কনটেন্ট তৈরি করে ফেলতে পারেন। মূলত এ কারণেই এর ব্যবহারে আগ্রহী হচ্ছে নেটিজেনরা। পাশাপাশি বিপরীত মতাদর্শের বিরুদ্ধে অপপ্রচার চালাতেও হাতিয়ার হিসেবে ব্যবহার হচ্ছে এআই। রাজনৈতিক উত্তপ্ত পরিস্থিতির সুযোগেও এআই প্রযুক্তির অপব্যবহার বাড়ছে। সামনের দিনগুলোতে এর নেতিবাচক প্রভাব আরও বাড়বে। তিনি আরও বলেন, এআই আসার আগে ফটোশপ প্রযুক্তি ব্যবহার করে ছবি বিকৃতি করা হতো। এ-সংক্রান্ত বিষয়ে অভিজ্ঞ ব্যক্তিরা সংশ্লিষ্ট ছবি বিশ্লেষণ করেই ছবিটি যে আসল নয় তা শনাক্ত করতে পারতেন। তবে এআই প্রযুক্তি দিন দিন আরও উন্নত হওয়ার সুযোগে এটি শনাক্তকরণ প্রক্রিয়া নিয়ে ভাবাচ্ছে সচেতন মহলকে।

সিগমান্ড এআই লিমিটেডের সিইও আবু আনাস সময়ের আলোকে বলেন, দুই বছর আগেও ফেক ভিডিও বানানো হতো তবে সেটি এত রিয়েলেস্টিক (বাস্তব সম্মত) হতো না। সহজেই ধরা যেত। যে কেউ দেখলেই বুঝে ফেলতে পারত। এখন বড় বড় প্রযুক্তি কোম্পানিগুলো তাদের টুলস ও প্ল্যাটফর্মগুলো এমনভাবে উন্মুক্ত করে দিয়েছে, যে কেউ চাইলে ন্যাচারাল ল্যাঙ্গুয়েজ ফন্ট দিয়ে যেকোনো ফেক ছবি তৈরি করে ফেলতে পারে। ডিপফেক ভিডিও তৈরির সব টুলস হাতের নাগালে থাকায় এআইয়ের অপব্যবহার বহুলাংশে বেড়েছে।

তিনি বলেন, ২০১৮ সালে জেনারেটিভ এআই প্রযুক্তি শুরু হয়েছিল। তখন থেকেই ডিপফেক ভিডিও ক্রমাগতভাবে বাড়ছিল। তখনকার ফেকগুলো সহজেই ধরা যেত। এখন জেনারেটিভ প্রযুক্তি আরও উন্নত হয়েছে। সবার হাতে হাতে এটি পৌঁছে যাচ্ছে এবং বিনামূল্যেই সবাই ব্যবহার করতে পারছে। বলা যায়, গত ছয় মাসে এটা আরও উন্নত হয়েছে। অনেক বেশি রিয়েলেস্টিক মনে হয়। ছয় মাসের মধ্যে যেগুলো হচ্ছে সেগুলো সহজেই ধরা যাচ্ছে না। অনেক বেশি উন্নত হয়েছে সামনে আরও উন্নত হবে। কিছু ওয়েবসাইট আছে সেখানে এগুলো চেক করা যায়।

এআই দিয়ে তৈরি ছবি চেনার উপায়

এআই দিয়ে নিখুঁতভাবে ভিডিও তৈরি হলেও ব্যবহারকারীরা একটু সচেতন হলে ফেক ছবি চেনার বেশ কিছু উপায় আছে বলে জানান প্রযুক্তিবিদরা। যেমন : এআই-জেনারেটেড ছবিতে প্রায়ই হাত, পা, আঙুল, মুখের অংশ (যেমন ঠোঁট, নাক, চোখ) বা শরীরের অন্যান্য অংশে অস্বাভাবিকতা থাকে। উদাহরণস্বরূপ, হাতের আঙুলের সংখ্যা বেশি বা কম হতে পারে বা আঙুলের আকৃতি অস্বাভাবিক হতে পারে। ত্বকের স্ট্রাকচার অসম হতে পারে। এটাও কোথাও খুব মসৃণ, আবার কোথাও এবড়োখেবড়ো হতে পারে। চুলের বিন্যাসেও অসঙ্গতি দেখা যায়। এআই প্রায়ই আলোর উৎস এবং ছায়ার সঠিক সামঞ্জস্য বজায় রাখতে ব্যর্থ হয়। ছায়া ও আলোর উৎসের বিপরীতে পড়তে পারে বা বস্তুর আকারের সঙ্গে মিল নাও থাকতে পারে। ছবির পটভূমিতে অবাস্তব বা কাল্পনিক উপাদান থাকতে পারে। পটভূমির বিবরণ অস্পষ্ট বা অসামঞ্জস্যপূর্ণ হতে পারে। সাধারণ ক্যামেরায় তোলা ছবিতে মেটাডেটা থাকে। যেমন ক্যামেরার মডেল, তারিখ, সময় ইত্যাদি। এআই-জেনারেটেড ছবিতে এ তথ্য সাধারণত থাকে না। এআই ছবি প্রায়ই অত্যধিক নিখুঁত বা কৃত্রিমভাবে মসৃণ দেখায়, যা মানুষের ত্বক বা প্রাকৃতিক দৃশ্যের স্বাভাবিক স্ট্রাকচারের সঙ্গে মেলে না। গুগল লেন্স বা টিনআইএর মতো টুল ব্যবহার করে ছবির উৎস যাচাই করা যেতে পারে। এআই-জেনারেটেড ছবি সাধারণত অন্য কোনো উৎসের সঙ্গে মিলবে না বা এটি একটি পরিবর্তিত ছবি হিসেবে চিহ্নিত হতে পারে।

ভিডিও শনাক্তকরণের উপায়

এআই-জেনারেটেড ভিডিওতে (যেমন ডিপফেক) ঠোঁটের নড়াচড়া অডিওর সঙ্গে পুরোপুরি মিল নাও হতে পারে। মুখের অভিব্যক্তি অস্বাভাবিক বা কৃত্রিম মনে হতে পারে। ভিডিওর পটভূমিতে অস্বাভাবিক পরিবর্তন বা বিকৃতি দেখা যেতে পারে। বস্তুর আকার, আলো বা ছায়া ফ্রেম থেকে ফ্রেমে অসঙ্গতিপূর্ণ হতে পারে। এআই ভিডিওতে চরিত্রের গতিবিধি কখনো কখনো কৃত্রিম মনে হতে পারে। হাত-পায়ের নড়াচড়া বা শরীরের ভঙ্গি অপ্রাকৃতিক হতে পারে। ভিডিওর অডিও ক্ষেত্রে ভিজুয়াল উপাদানের কথা বলার সময় মুখের নড়াচড়া অডিওর সঙ্গে মেলে না। এ ছাড়া কিছু টুল, যেমন গোল্ডেন পেঙ্গুইন বা প্লাগারিজম চেকার, এআই-জেনারেটেড কনটেন্ট শনাক্ত করতে সাহায্য করতে পারে। তবে এগুলো সবসময় নির্ভুল নয়। কনটেন্টটি কোথা থেকে এসেছে তা যাচাই করে যদি নিশ্চিত হওয়া যায়, এটি কোনো অপরিচিত বা অবিশ্বস্ত উৎস থেকে এসেছে, তবে এটি এআই-জেনারেটেড হওয়ার সম্ভাবনা বেশি।

শাকিল আহমেদ
সময়ের আলো/৩০ এপ্রিল, ২০২৫

আরও - জাতীয় সংবাদ

আরও - লাইফ স্টাইল সংবাদ