Deepfakes মেশিন শিক্ষার জন্য কোন মিল নেই - এখানে কেন

$config[ads_kvadrat] not found

Live Sexy Stage Dance 2017 -- नई जवान छोरी ने किया पब्लिà¤

Live Sexy Stage Dance 2017 -- नई जवान छोरी ने किया पब्लिà¤

সুচিপত্র:

Anonim

২018 সালের মাঝামাঝি নির্বাচনের প্রচারাভিযানগুলি উষ্ণ হয়ে অনলাইন সম্প্রদায়গুলির মাধ্যমে ছড়িয়ে পড়ার জন্য একটি নতুন ধরনের ভুল ধারণা তৈরি করা হয়। ছদ্মবেশী অনলাইন অ্যাকাউন্টের পরে "গভীর গোঁফ" বলা হয়েছে যা কৌশলটি জনপ্রিয় করেছে - যা তার নামটি বেছে নিতে পারে কারণ প্রক্রিয়াটি "গভীর শিক্ষার" নামে একটি প্রযুক্তিগত পদ্ধতি ব্যবহার করে - এই জাল ভিডিওগুলি খুব বাস্তববাদী বলে মনে হয়।

এতদূর, লোকেরা পর্নোগ্রাফি এবং গভীর উপহাসের ভিডিও ব্যবহার করেছে যাতে এটি প্রদর্শিত হয় যে বিখ্যাত লোকেরা এমন জিনিসগুলি করছে যা তারা সাধারণত না করে। তবে প্রচারাভিযানের মৌসুমে প্রায় কিছু গভীর গোঁফ দেখা যাবে, যা প্রার্থীকে কিছু বলার বা আসল প্রার্থীকে জায়গা দেওয়ার জায়গাগুলি দেখানোর দাবি জানাচ্ছে।

কারণ এই কৌশলগুলি এত নতুন, লোকেদের আসল ভিডিও এবং deepfake ভিডিওগুলির মধ্যে পার্থক্য জানাতে সমস্যা হচ্ছে। আমার কাজ, আমার সহকর্মী মিং-চিং চ্যাং এবং আমাদের পিএইচডি। ছাত্র ইউয়েজুন লি, গভীরভাবে বিশ্বাসযোগ্য ভিডিওগুলি থেকে গভীর ভিডিওগুলি জানার উপায় খুঁজে পেয়েছেন। এটি স্থায়ী সমাধান নয়, কারণ প্রযুক্তি উন্নত হবে। কিন্তু এটি একটি শুরু, এবং আশা করে যে কম্পিউটারগুলি লোকেরা কথাসাহিত্য থেকে সত্যকে জানাতে সক্ষম হবেন।

কি একটি "Deepfake," যাইহোক?

একটি deepfake ভিডিও তৈরি ভাষা মধ্যে অনুবাদ অনেক ভালো। গুগল অনুবাদ মত সেবাগুলি মেশিন লার্নিং ব্যবহার করে - একাধিক ভাষায় হাজার হাজার গ্রন্থে কম্পিউটার বিশ্লেষণ - অনুবাদ তৈরি করার জন্য ব্যবহৃত শব্দ-ব্যবহার নিদর্শন সনাক্ত করতে।

ডিপফেক অ্যালগরিদম একই ভাবে কাজ করে: তারা এক ব্যক্তির মুখের আন্দোলনের পরীক্ষা করার জন্য একটি গভীর স্নায়ু নেটওয়ার্ক নামে একটি মেশিন লার্নিং সিস্টেম ব্যবহার করে। তারপরে তারা অন্য ব্যক্তির মুখের চিত্রগুলি সমান্তরাল আন্দোলনগুলি সংশ্লেষ করে। এত কার্যকরভাবে লক্ষ্যবস্তু ব্যক্তির একটি ভিডিও তৈরি করে যা উত্সর্গীকৃত ব্যক্তিরা কী বলে বা বলে।

তারা সঠিকভাবে কাজ করতে পারার আগে, গভীর স্নায়ুতন্ত্রগুলির প্রচুর উত্স তথ্যের প্রয়োজন, যেমন ব্যক্তিদের ফটোগুলি ছদ্মবেশ ধারণার উৎস বা লক্ষ্য। একটি deepfake অ্যালগরিদম প্রশিক্ষণের জন্য ব্যবহৃত আরো ছবি, ডিজিটাল impersonation আরো বাস্তবসম্মত হবে।

আলিঙ্গন সনাক্তকরণ

এই নতুন ধরনের অ্যালগরিদম এখনও ত্রুটি আছে। তাদের মধ্যে একটি কিভাবে সিমুলেটেড মুখ ঝলসানি সঙ্গে কাজ করতে হবে - না। সুস্থ প্রাপ্তবয়স্ক মানুষ প্রতি দুই এবং 10 সেকেন্ডের মধ্যে কোথাও আলিঙ্গন করে, এবং একটি একক ঝলক একটি সেকেন্ডের এক দশমাংশ এবং চতুর্থাংশের মধ্যে লাগে। একজন ব্যক্তির কথা বলা একটি ভিডিও দেখতে স্বাভাবিক হবে। কিন্তু এটি অনেক গভীর ভিডিওতে কী হয় না।

যখন একজন গভীর মুখ আলগোরিদিম একজন ব্যক্তির মুখের ছবিগুলিতে প্রশিক্ষিত হয়, তখন এটি ইন্টারনেটে উপলব্ধ ফটোগুলির উপর নির্ভরশীল যা প্রশিক্ষণ ডেটা হিসাবে ব্যবহার করা যেতে পারে। এমনকি যারা ফটোগ্রাফ করা হয় তাদের জন্য, কয়েকটি ছবি তাদের চোখ বন্ধ করে অনলাইনে পাওয়া যায়। কেবল সেই বিরল ফটোগুলিই নয় - কারণ মানুষের চোখ বেশিরভাগ সময় খোলা থাকে - তবে ফটোগ্রাফার সাধারণত চিত্রগুলি প্রকাশ করে না যেখানে প্রধান বিষয়গুলির চোখ বন্ধ থাকে।

ব্লকিংয়ের চিত্রগুলির প্রশিক্ষণ ছাড়াই, deepfake অ্যালগরিদমগুলি সাধারণভাবে মুগ্ধ হওয়া মুখগুলি তৈরির সম্ভাবনা কম। যখন আমরা ঝলমলে সামগ্রিক হার গণনা করি এবং প্রাকৃতিক পরিসরের সাথে তুলনা করি, তখন আমরা দেখি যে deepfake ভিডিওগুলিতে অক্ষরগুলি বাস্তব লোকেদের তুলনায় প্রায়শই কম হ্রাস পায়। আমাদের গবেষণা চোখের খোলার এবং ভিডিও বন্ধ করার পরীক্ষা মেশিন লার্নিং ব্যবহার করে।

আরও দেখুন: হলিউড এশিয়ান-আমেরিকান স্টার কেটে দেবে না, কিন্তু এআই। মেশিন শিক্ষণ করতে পারেন

এই deepfake ভিডিও সনাক্ত করার জন্য একটি অনুপ্রেরণা দেয়। তারপরে, ভিডিওতে থাকা ব্যক্তির ব্লিঙ্ক সনাক্ত করার জন্য আমরা একটি পদ্ধতি বিকাশ করি। আরো নির্দিষ্ট হতে, এটি একটি ভিডিওর প্রতিটি ফ্রেম স্ক্যান করে, এতে মুখ সনাক্ত করে এবং তারপর স্বয়ংক্রিয়ভাবে চোখের সন্ধান করে। এটি তখন চোখটির চেহারা, জ্যামিতিক বৈশিষ্ট্য এবং আন্দোলনের ব্যবহার করে সনাক্ত হওয়া চোখ খোলা বা বন্ধ থাকে কিনা তা নির্ধারণের জন্য আরও গভীর নিউরাল নেটওয়ার্ক ব্যবহার করে।

আমরা জানি যে আমাদের কাজটি deepfake অ্যালগরিদমগুলিকে প্রশিক্ষণের জন্য উপলব্ধ তথ্য অনুসারে ত্রুটিগুলির সুবিধা গ্রহণ করছে। অনুরূপ ত্রুটি থেকে শিকারের শিকার হওয়া এড়ানোর জন্য, আমরা আমাদের সিস্টেমকে খোলা এবং বন্ধ চোখ উভয় ছবিগুলির একটি বড় লাইব্রেরীতে প্রশিক্ষণ দিয়েছি। এই পদ্ধতিটি ভাল কাজ করে বলে মনে হচ্ছে, এবং ফলস্বরূপ, আমরা 95% সনাক্তকরণ হার অর্জন করেছি।

অবশ্যই, গভীর গোঁফ সনাক্ত করার চূড়ান্ত শব্দ নয়। প্রযুক্তির দ্রুত উন্নতি হচ্ছে, এবং জাল ভিডিও তৈরি এবং সনাক্তকরণের মধ্যে প্রতিযোগিতা একটি দাবা খেলা অনুরূপ। বিশেষত, বন্ধ চোখ দিয়ে মুখ চিত্রগুলি বা প্রশিক্ষণের জন্য ভিডিও ক্রমগুলি ব্যবহার করে গভীরতম ভিডিওগুলিতে আলিঙ্গন করা যেতে পারে। যারা জনসাধারণকে বিভ্রান্ত করতে চায় তারা মিথ্যা ভিডিওগুলি তৈরি করতে আরও ভাল হবে - এবং প্রযুক্তিবিদ সম্প্রদায়ের আমরা এবং অন্যদের তাদের সনাক্ত করার উপায় খুঁজে বের করতে হবে।

এই নিবন্ধটি মূলত দাবায়ে লিউ কথোপকথন দ্বারা প্রকাশিত হয়েছিল। এখানে মূল নিবন্ধ পড়ুন।

$config[ads_kvadrat] not found