শিশু-কিশোরদের জন্য কতটা নিরাপদ কৃত্রিম বুদ্ধিমত্তা? গড়ে উঠছে স্বাধীন পরীক্ষাগার

বিশ্বজুড়ে দ্রুত বিস্তার লাভ করছে কৃত্রিম বুদ্ধিমত্তাভিত্তিক প্রযুক্তি। দৈনন্দিন জীবন থেকে শুরু করে শিক্ষা, বিনোদন ও সামাজিক যোগাযোগ—সব ক্ষেত্রেই বাড়ছে এর ব্যবহার। তবে প্রযুক্তিটির দ্রুত প্রসারের সঙ্গে সঙ্গে শিশু ও কিশোরদের নিরাপত্তা নিয়ে উদ্বেগও বাড়ছে বিশেষজ্ঞদের মধ্যে। এমন বাস্তবতায় শিশুদের জন্য কৃত্রিম বুদ্ধিমত্তার ঝুঁকি মূল্যায়নে নতুন একটি স্বাধীন গবেষণা ও পরীক্ষাগার গড়ে তোলার উদ্যোগ নেওয়া হয়েছে।
যুক্তরাষ্ট্রভিত্তিক অলাভজনক প্রতিষ্ঠান কমন সেন্স মিডিয়া “ইউথ এআই সেফটি ইনস্টিটিউট” নামে এই স্বাধীন ল্যাব চালুর ঘোষণা দিয়েছে। প্রতিষ্ঠানটির লক্ষ্য হলো জনপ্রিয় কৃত্রিম বুদ্ধিমত্তা প্ল্যাটফর্ম ও ডিজিটাল টুলগুলোকে বিভিন্ন ঝুঁকিপূর্ণ পরিস্থিতিতে পরীক্ষা করে শিশু-কিশোরদের জন্য সম্ভাব্য বিপদ শনাক্ত করা।
বিশেষজ্ঞদের মতে, এই উদ্যোগ অনেকটা গাড়ির নিরাপত্তা যাচাইয়ের “ক্র্যাশ টেস্ট” পদ্ধতির মতো। যেভাবে গাড়ির নিরাপত্তা নিশ্চিত করতে নির্মাতা প্রতিষ্ঠানগুলোকে নির্দিষ্ট মানদণ্ড অনুসরণ করতে হয়, ঠিক তেমনি কৃত্রিম বুদ্ধিমত্তা কোম্পানিগুলোকেও নিরাপদ প্রযুক্তি তৈরি করতে উৎসাহিত করাই এই উদ্যোগের মূল উদ্দেশ্য।
প্রযুক্তি বিশ্লেষকদের ভাষ্য, বর্তমানে কৃত্রিম বুদ্ধিমত্তা খাতে প্রতিযোগিতা এতটাই তীব্র যে অনেক ক্ষেত্রে নিরাপত্তা যাচাই যথাযথভাবে সম্পন্ন হয় না। বিশেষ করে শিশু ও কিশোরদের ক্ষেত্রে এর নেতিবাচক প্রভাব আরও জটিল হতে পারে। কারণ, এই বয়সী ব্যবহারকারীরা প্রযুক্তির ঝুঁকি সম্পর্কে সচেতন থাকে না।
গবেষকেরা বলছেন, কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি অত্যন্ত জটিল ও দ্রুত পরিবর্তনশীল। নতুন আপডেটের মাধ্যমে প্রতিনিয়ত নতুন আচরণ ও ঝুঁকি তৈরি হতে পারে। তাই শুধু কোম্পানিগুলোর নিজস্ব নিয়ন্ত্রণ ব্যবস্থার ওপর নির্ভর না করে স্বাধীন ও নিরপেক্ষ মূল্যায়ন ব্যবস্থা গড়ে তোলা জরুরি হয়ে উঠেছে।
নতুন এই ইনস্টিটিউট “রেড টিমিং” নামে পরিচিত বিশেষ পরীক্ষাপদ্ধতির মাধ্যমে বিভিন্ন এআই প্ল্যাটফর্ম পরীক্ষা করবে। অর্থাৎ ইচ্ছাকৃতভাবে ঝুঁকিপূর্ণ পরিস্থিতি তৈরি করে দেখা হবে, প্রযুক্তিগুলো কী ধরনের প্রতিক্রিয়া জানায় এবং শিশুদের জন্য সেগুলো কতটা নিরাপদ।
এ ছাড়া প্রতিষ্ঠানটি শিশুদের জন্য বিভিন্ন প্রযুক্তির নিরাপত্তা রেটিং প্রকাশ করবে। পাশাপাশি অভিভাবক ও শিক্ষকদের জন্য সহজবোধ্য নির্দেশিকা তৈরি করা হবে। প্রযুক্তি কোম্পানিগুলোর জন্যও নিরাপত্তা মানদণ্ড নির্ধারণের উদ্যোগ নেওয়া হবে।
জানা গেছে, প্রকল্পটি পরিচালনায় বছরে প্রায় ২০ মিলিয়ন ডলার অর্থায়নের পরিকল্পনা রয়েছে। বিভিন্ন প্রযুক্তি প্রতিষ্ঠান ও দাতব্য সংস্থা এতে সহায়তা করছে। তবে গবেষণার নিরপেক্ষতা বজায় রাখতে অর্থদাতাদের কোনো ধরনের প্রভাব গ্রহণ করা হবে না বলে জানিয়েছে আয়োজকরা।
বিশেষজ্ঞরা মনে করছেন, সামাজিক যোগাযোগমাধ্যমের ক্ষেত্রে যেভাবে দীর্ঘ সময় পর এর নেতিবাচক প্রভাব স্পষ্ট হয়েছে, কৃত্রিম বুদ্ধিমত্তার ক্ষেত্রেও যেন একই ভুল না হয়, সেদিকে এখনই নজর দেওয়া প্রয়োজন। বিভিন্ন গবেষণায় ইতোমধ্যে দেখা গেছে, প্রযুক্তির নকশা ও ব্যবহার শিশুদের আচরণ, মনোযোগ ও মানসিক স্বাস্থ্যের ওপর সরাসরি প্রভাব ফেলতে পারে।
তাঁদের মতে, শুরু থেকেই নিরাপত্তাকে অগ্রাধিকার দেওয়া গেলে ভবিষ্যতে বড় ধরনের সামাজিক ঝুঁকি কমানো সম্ভব হবে।
বিশেষজ্ঞদের ধারণা, এই উদ্যোগ সফল হলে প্রযুক্তি প্রতিষ্ঠানগুলোর মধ্যে নিরাপত্তা নিশ্চিত করার প্রতিযোগিতা তৈরি হতে পারে। একই সঙ্গে শিশুদের জন্য নিরাপদ ডিজিটাল পরিবেশ গড়ে উঠবে এবং অভিভাবক ও শিক্ষকেরা প্রযুক্তি ব্যবহারে আরও সচেতন সিদ্ধান্ত নিতে পারবেন।
প্রযুক্তিবিদদের ভাষায়, কৃত্রিম বুদ্ধিমত্তা এখন আর শুধু প্রযুক্তিগত অগ্রগতির প্রতীক নয়; এটি সামাজিক দায়বদ্ধতারও একটি গুরুত্বপূর্ণ বিষয়। শিশুদের সুরক্ষা নিশ্চিত না করে এ প্রযুক্তির বিস্তার ভবিষ্যতে বড় ধরনের ঝুঁকি তৈরি করতে পারে। সেই বাস্তবতা থেকেই “ইউথ এআই সেফটি ইনস্টিটিউট” উদ্যোগটিকে বিশ্বব্যাপী একটি গুরুত্বপূর্ণ পদক্ষেপ হিসেবে দেখা হচ্ছে।





