অ্যান্ড্রি ওনুফ্রিয়েঙ্কো | গেটি ছবি

যেকোনো ধরনের কোম্পানি ব্যবহার করে মেশিন লার্নিং মানুষের ইচ্ছা, অপছন্দ বা মুখ বিশ্লেষণ করা। কিছু গবেষক এখন একটি ভিন্ন প্রশ্ন করছেন: আমরা কীভাবে মেশিনগুলি ভুলে যেতে পারি?

কম্পিউটার বিজ্ঞানের একটি নতুন ক্ষেত্র হল ডাব মেশিন শিখতে নির্বাচনী অ্যামনেশিয়া তৈরির উপায় খুঁজছেন কৃত্রিম বুদ্ধিমত্তা সফটওয়্যার. লক্ষ্য হল তার কর্মক্ষমতাকে প্রভাবিত না করে মেশিন লার্নিং সিস্টেম থেকে একটি নির্দিষ্ট ব্যক্তির সমস্ত ডেটা বা ডেটা পয়েন্ট মুছে ফেলা।

যদি বাস্তবে প্রয়োগ করা হয়, ধারণাটি মানুষকে তথ্যের উপর এবং এর থেকে প্রাপ্ত মূল্যের উপর আরো নিয়ন্ত্রণ দিতে পারে। যদিও ব্যবহারকারীরা এখন কিছু সংস্থাকে ব্যক্তিগত তথ্য মুছে ফেলতে বলতে পারে, তারা সাধারণত অন্ধকারে দেখে যে তাদের ডেটা নিয়ন্ত্রণ বা প্রশিক্ষণে কী অ্যালগরিদম সাহায্য করে। মেশিন না শেখা একজন ব্যক্তির পক্ষে তার ডেটা এবং কোম্পানির লাভের ক্ষমতা উভয়ই ফিরিয়ে আনা কঠিন করে তুলতে পারে।

যদিও যে কেউ ইন্টারনেটে যা শেয়ার করে তার প্রশংসা করা সহজ, কিন্তু কৃত্রিম স্মৃতিভ্রংশের ধারণার জন্য কম্পিউটার বিজ্ঞানে কিছু নতুন ধারণা প্রয়োজন। কোম্পানিগুলো লক্ষ লক্ষ ডলার খরচ করে মেশিন লার্নিং অ্যালগরিদম শেখায় বা সামাজিক পোস্টগুলিকে র rank্যাঙ্ক করে, কারণ অ্যালগরিদম প্রায়ই মানুষের এনকোডারের চেয়ে দ্রুত সমস্যার সমাধান করতে পারে। যাইহোক, একবার প্রশিক্ষিত হয়ে গেলে, একটি মেশিন লার্নিং সিস্টেম সহজে পরিবর্তন হয় না। অথবা এমনকি বোঝা যায়। একটি নির্দিষ্ট ডেটা পয়েন্টের প্রভাব কাটিয়ে ওঠার traditionalতিহ্যবাহী উপায় হল সিস্টেমটিকে শুরু থেকে পুনর্নির্মাণ করা, যা একটি সম্ভাব্য ব্যয়বহুল ব্যায়াম। পেনসিলভানিয়া বিশ্ববিদ্যালয়ের অধ্যাপক অ্যারন রথ বলেন, “এই গবেষণার লক্ষ্য হল একটু মধ্যম স্থল খুঁজে বের করা।” “যখন আমরা কারো ডেটা মুছে ফেলতে চাই তখন আমরা সমস্ত প্রভাব দূর করতে পারি, কিন্তু আমরা কি শুরু থেকে পুনরায় প্রশিক্ষণের সম্পূর্ণ খরচ এড়াতে পারি?”

মেশিন লার্নিং -এ কাজ করা কৃত্রিম বুদ্ধিমত্তা কীভাবে গোপনীয়তার সাথে আপোষ করতে পারে সেদিকে মনোযোগ বাড়ানোর দ্বারা অনুপ্রাণিত হয়। বিশ্বজুড়ে ডেটা রেগুলেটররা দীর্ঘদিন ধরে কোম্পানিকে অবৈধ ডেটা মুছে দিতে বাধ্য করার ক্ষমতা পেয়েছে। কিছু অঞ্চলের নাগরিক হিসেবে আমাকে এবং ক্যালিফোর্নিয়াএমনকি তাদের দাবি করার অধিকার আছে যে তারা একটি কোম্পানির তথ্য মুছে দেয় যদি তারা তাদের প্রকাশের বিষয়ে তাদের মন পরিবর্তন করে। সম্প্রতি, মার্কিন যুক্তরাষ্ট্র এবং ইউরোপীয় নিয়ন্ত্রকরা বলেছে যে এআই সিস্টেমের মালিকদের মাঝে মাঝে এক ধাপ এগিয়ে যেতে হবে: এমন একটি সিস্টেম মুছে ফেলুন যা সংবেদনশীল ডেটার উপর প্রশিক্ষিত হয়েছে।

ইংল্যান্ডের ডেটা রেগুলেটর গত বছর কোম্পানিগুলোকে সতর্ক করেছে একটি এআই সিস্টেমে ব্যক্তিগত তথ্য থাকতে পারে কারণ একটি মেশিন লার্নিং প্রোগ্রাম জিডিপিআর অধিকারের অধীন হতে পারে যেমন ডেটা মুছে ফেলা। নিরাপত্তা গবেষকরা দেখিয়েছেন যে আপনাকে সংবেদনশীল ডেটা ফাঁস করতে বাধ্য করা যেতে পারে যা কখনও কখনও অ্যালগরিদম তৈরিতে ব্যবহৃত হয়। ইউএস ফেডারেল ট্রেড কমিশন এই বছরের শুরুতে জোরপূর্বক মুখের শনাক্তকরণের সূত্রপাত ভুলভাবে প্রাপ্ত মুখের ছবি এবং তাদের সাথে প্রশিক্ষিত মেশিন লার্নিং অ্যালগরিদমগুলির একটি সেট মুছে দিন। এফটিসি কমিশনার রোহিত চোপড়া তথ্য প্রয়োগের নিয়ম লঙ্ঘনকারী একটি কোম্পানিকে “প্রতারণার ফল মিস করতে” বাধ্য করার উপায় হিসাবে নতুন অ্যাপ্লিকেশন কৌশলটির প্রশংসা করেছেন।

ছোট মেশিন লার্নিংয়ের ক্ষেত্রটি এই নিয়ন্ত্রক পরিবর্তনের সাথে উদ্ভূত কিছু ব্যবহারিক এবং গাণিতিক প্রশ্নের সাথে লড়াই করছে। গবেষকরা দেখিয়েছেন যে মেশিন লার্নিং অ্যালগরিদমগুলি কিছু শর্তে ভুলে যেতে পারে, তবে কৌশলটি এখনও সেরা সময়ের জন্য প্রস্তুত নয়। “একটি তরুণ ক্ষেত্রের জন্য যেমন সাধারণ, এই ক্ষেত্রটি কী করতে চায় এবং আমরা এখন কী করতে জানি তার মধ্যে একটি ব্যবধান রয়েছে,” রথ বলেছেন।

একটি আশাবাদী পদ্ধতির প্রস্তাব করা হয়েছিল 2019 সালে টরন্টো বিশ্ববিদ্যালয় এবং উইসকনসিন-ম্যাডিসন বিশ্ববিদ্যালয়ের গবেষকরা একটি নতুন মেশিন লার্নিং প্রকল্পের জন্য উৎসের তথ্যকে বিভিন্ন অংশে ভাগ করার পরিকল্পনা করেছেন। চূড়ান্ত মেশিন লার্নিং মডেলে একীভূত হওয়ার আগে ফলাফলগুলি আলাদাভাবে প্রক্রিয়া করা হয়। যদি কোনো ডেটা পয়েন্ট পরে ভুলে যাওয়ার প্রয়োজন হয়, তাহলে মূল লগইন ডেটার কিছু অংশই প্রক্রিয়া করা প্রয়োজন। এই পদ্ধতিটি অনলাইন শপিং ডেটার উপর কাজ করতে দেখানো হয়েছে মিলিয়নেরও বেশি ছবির সংগ্রহ

রথ এবং পেন, হার্ভার্ড এবং স্ট্যানফোর্ডের কর্মচারী সম্প্রতি এই পদ্ধতির একটি ত্রুটি উপস্থাপন করে, ইঙ্গিত করে যে যদি মুছে ফেলার অনুরোধগুলি সুযোগক্রমে বা একটি দূষিত অভিনেতার দ্বারা একটি নির্দিষ্ট ক্রমে আসে, তাহলে শিক্ষণ ব্যবস্থা ব্যাহত হবে। তারা কীভাবে সমস্যার সমাধান করতে হয় তাও দেখিয়েছে।

ওয়াটারলু বিশ্ববিদ্যালয়ের অধ্যাপক গৌতম কামাথও এই গবেষণায় কাজ করছেন, বলেন যে প্রকল্পটি যে সমস্যাটি খুঁজে পায় এবং সমাধান করে তা মেশিনটি কীভাবে না শিখতে হবে সে সম্পর্কে অনেক খোলাখুলি প্রশ্নের উদাহরণ। তার নিজস্ব গবেষণা গ্রুপ ছিল অনুসন্ধান ধারাবাহিকভাবে অনেক ডাটা পয়েন্ট খোলার মাধ্যমে সিস্টেমের সঠিকতা কতটা কমে যায়।

কামাথ প্রমাণ করার উপায় খুঁজতেও আগ্রহী যে একটি কোম্পানি আসলে কি ভুলে গেছে যে কোন সিস্টেমটি শেখা উচিত ছিল না, বা নিয়ন্ত্রককে পরীক্ষা করতে। “আমি কিছুটা পথের বাইরে অনুভব করছি, কিন্তু শেষ পর্যন্ত হয়তো এমন কিছু করার জন্য নিরীক্ষক থাকবে,” তিনি বলেছেন।

এফটিসি এবং অন্যান্যরা অ্যালগরিদমের শক্তিকে ঘনিষ্ঠভাবে পর্যবেক্ষণ করলে, মেশিন লার্নিংয়ের সম্ভাবনা তদন্ত করার জন্য নিয়ন্ত্রক কারণগুলির বৃদ্ধি হওয়ার সম্ভাবনা রয়েছে। অক্সফোর্ড বিশ্ববিদ্যালয়ের ডেটা সুরক্ষার অধ্যাপক রুবেন বিনস বলেন, সাম্প্রতিক বছরগুলোতে মার্কিন যুক্তরাষ্ট্র এবং ইউরোপ উভয় দেশেই তাদের ডেটার ভাগ্য এবং ফল সম্পর্কে ব্যক্তিদের সচেতনতা বৃদ্ধি পেয়েছে।

প্রযুক্তি সংস্থার জন্য মেশিন লার্নিং বাস্তবায়নের জন্য Virtuoso প্রযুক্তিগত কাজ প্রয়োজন যাতে মানুষ তাদের তথ্যের অ্যালগরিদমিক ভাগ্যের উপর আরো নিয়ন্ত্রণ প্রদান করে। তারপরেও, প্রযুক্তি এআই যুগের গোপনীয়তা ঝুঁকি সম্পর্কে খুব বেশি পরিবর্তন করতে পারে না।

ডিফারেনশিয়াল গোপনীয়তাএকজন ব্যক্তির সম্পর্কে একটি সিস্টেম কী ফাঁস করতে পারে তার গাণিতিক সীমা নির্ধারণের জন্য একটি চতুর কৌশল একটি দরকারী তুলনা প্রদান করে। অ্যাপল, গুগল এবং মাইক্রোসফট প্রযুক্তির সাথে সামঞ্জস্যপূর্ণ, তবে এটি তুলনামূলকভাবে খুব কমই ব্যবহৃত হয় এবং গোপনীয়তার হুমকি এখনও বেশি।

বিনস বলছেন যে যখন এটি সত্যিই দরকারী, “অন্যান্য ক্ষেত্রে এটি এমন কিছু যা একটি কোম্পানি দেখায় যে এটি উদ্ভাবনী।” তিনি সন্দেহ করেন যে মেশিন লার্নিং অনুরূপ প্রমাণিত হতে পারে, যা ডেটা সুরক্ষায় বড় পরিবর্তনের চেয়ে প্রযুক্তিগত জ্ঞানের বহিপ্রকাশ। এমনকি যদি মেশিনগুলি ভুলে যেতে শেখে, ব্যবহারকারীদের মনে রাখতে হবে যে তারা কার সাথে তথ্য ভাগ করে সে সম্পর্কে সতর্ক থাকতে হবে।

এই গল্পটি প্রথম প্রকাশিত হয়েছিল wired.com