Live Sexy Stage Dance 2017 -- नई जवान छोरी ने किया पबà¥à¤²à¤¿à¤
সুচিপত্র:
২018 সালের মাঝামাঝি নির্বাচনের প্রচারাভিযানগুলি উষ্ণ হয়ে অনলাইন সম্প্রদায়গুলির মাধ্যমে ছড়িয়ে পড়ার জন্য একটি নতুন ধরনের ভুল ধারণা তৈরি করা হয়। ছদ্মবেশী অনলাইন অ্যাকাউন্টের পরে "গভীর গোঁফ" বলা হয়েছে যা কৌশলটি জনপ্রিয় করেছে - যা তার নামটি বেছে নিতে পারে কারণ প্রক্রিয়াটি "গভীর শিক্ষার" নামে একটি প্রযুক্তিগত পদ্ধতি ব্যবহার করে - এই জাল ভিডিওগুলি খুব বাস্তববাদী বলে মনে হয়।
এতদূর, লোকেরা পর্নোগ্রাফি এবং গভীর উপহাসের ভিডিও ব্যবহার করেছে যাতে এটি প্রদর্শিত হয় যে বিখ্যাত লোকেরা এমন জিনিসগুলি করছে যা তারা সাধারণত না করে। তবে প্রচারাভিযানের মৌসুমে প্রায় কিছু গভীর গোঁফ দেখা যাবে, যা প্রার্থীকে কিছু বলার বা আসল প্রার্থীকে জায়গা দেওয়ার জায়গাগুলি দেখানোর দাবি জানাচ্ছে।
কারণ এই কৌশলগুলি এত নতুন, লোকেদের আসল ভিডিও এবং deepfake ভিডিওগুলির মধ্যে পার্থক্য জানাতে সমস্যা হচ্ছে। আমার কাজ, আমার সহকর্মী মিং-চিং চ্যাং এবং আমাদের পিএইচডি। ছাত্র ইউয়েজুন লি, গভীরভাবে বিশ্বাসযোগ্য ভিডিওগুলি থেকে গভীর ভিডিওগুলি জানার উপায় খুঁজে পেয়েছেন। এটি স্থায়ী সমাধান নয়, কারণ প্রযুক্তি উন্নত হবে। কিন্তু এটি একটি শুরু, এবং আশা করে যে কম্পিউটারগুলি লোকেরা কথাসাহিত্য থেকে সত্যকে জানাতে সক্ষম হবেন।
কি একটি "Deepfake," যাইহোক?
একটি deepfake ভিডিও তৈরি ভাষা মধ্যে অনুবাদ অনেক ভালো। গুগল অনুবাদ মত সেবাগুলি মেশিন লার্নিং ব্যবহার করে - একাধিক ভাষায় হাজার হাজার গ্রন্থে কম্পিউটার বিশ্লেষণ - অনুবাদ তৈরি করার জন্য ব্যবহৃত শব্দ-ব্যবহার নিদর্শন সনাক্ত করতে।
ডিপফেক অ্যালগরিদম একই ভাবে কাজ করে: তারা এক ব্যক্তির মুখের আন্দোলনের পরীক্ষা করার জন্য একটি গভীর স্নায়ু নেটওয়ার্ক নামে একটি মেশিন লার্নিং সিস্টেম ব্যবহার করে। তারপরে তারা অন্য ব্যক্তির মুখের চিত্রগুলি সমান্তরাল আন্দোলনগুলি সংশ্লেষ করে। এত কার্যকরভাবে লক্ষ্যবস্তু ব্যক্তির একটি ভিডিও তৈরি করে যা উত্সর্গীকৃত ব্যক্তিরা কী বলে বা বলে।
তারা সঠিকভাবে কাজ করতে পারার আগে, গভীর স্নায়ুতন্ত্রগুলির প্রচুর উত্স তথ্যের প্রয়োজন, যেমন ব্যক্তিদের ফটোগুলি ছদ্মবেশ ধারণার উৎস বা লক্ষ্য। একটি deepfake অ্যালগরিদম প্রশিক্ষণের জন্য ব্যবহৃত আরো ছবি, ডিজিটাল impersonation আরো বাস্তবসম্মত হবে।
আলিঙ্গন সনাক্তকরণ
এই নতুন ধরনের অ্যালগরিদম এখনও ত্রুটি আছে। তাদের মধ্যে একটি কিভাবে সিমুলেটেড মুখ ঝলসানি সঙ্গে কাজ করতে হবে - না। সুস্থ প্রাপ্তবয়স্ক মানুষ প্রতি দুই এবং 10 সেকেন্ডের মধ্যে কোথাও আলিঙ্গন করে, এবং একটি একক ঝলক একটি সেকেন্ডের এক দশমাংশ এবং চতুর্থাংশের মধ্যে লাগে। একজন ব্যক্তির কথা বলা একটি ভিডিও দেখতে স্বাভাবিক হবে। কিন্তু এটি অনেক গভীর ভিডিওতে কী হয় না।
যখন একজন গভীর মুখ আলগোরিদিম একজন ব্যক্তির মুখের ছবিগুলিতে প্রশিক্ষিত হয়, তখন এটি ইন্টারনেটে উপলব্ধ ফটোগুলির উপর নির্ভরশীল যা প্রশিক্ষণ ডেটা হিসাবে ব্যবহার করা যেতে পারে। এমনকি যারা ফটোগ্রাফ করা হয় তাদের জন্য, কয়েকটি ছবি তাদের চোখ বন্ধ করে অনলাইনে পাওয়া যায়। কেবল সেই বিরল ফটোগুলিই নয় - কারণ মানুষের চোখ বেশিরভাগ সময় খোলা থাকে - তবে ফটোগ্রাফার সাধারণত চিত্রগুলি প্রকাশ করে না যেখানে প্রধান বিষয়গুলির চোখ বন্ধ থাকে।
ব্লকিংয়ের চিত্রগুলির প্রশিক্ষণ ছাড়াই, deepfake অ্যালগরিদমগুলি সাধারণভাবে মুগ্ধ হওয়া মুখগুলি তৈরির সম্ভাবনা কম। যখন আমরা ঝলমলে সামগ্রিক হার গণনা করি এবং প্রাকৃতিক পরিসরের সাথে তুলনা করি, তখন আমরা দেখি যে deepfake ভিডিওগুলিতে অক্ষরগুলি বাস্তব লোকেদের তুলনায় প্রায়শই কম হ্রাস পায়। আমাদের গবেষণা চোখের খোলার এবং ভিডিও বন্ধ করার পরীক্ষা মেশিন লার্নিং ব্যবহার করে।
আরও দেখুন: হলিউড এশিয়ান-আমেরিকান স্টার কেটে দেবে না, কিন্তু এআই। মেশিন শিক্ষণ করতে পারেন
এই deepfake ভিডিও সনাক্ত করার জন্য একটি অনুপ্রেরণা দেয়। তারপরে, ভিডিওতে থাকা ব্যক্তির ব্লিঙ্ক সনাক্ত করার জন্য আমরা একটি পদ্ধতি বিকাশ করি। আরো নির্দিষ্ট হতে, এটি একটি ভিডিওর প্রতিটি ফ্রেম স্ক্যান করে, এতে মুখ সনাক্ত করে এবং তারপর স্বয়ংক্রিয়ভাবে চোখের সন্ধান করে। এটি তখন চোখটির চেহারা, জ্যামিতিক বৈশিষ্ট্য এবং আন্দোলনের ব্যবহার করে সনাক্ত হওয়া চোখ খোলা বা বন্ধ থাকে কিনা তা নির্ধারণের জন্য আরও গভীর নিউরাল নেটওয়ার্ক ব্যবহার করে।
আমরা জানি যে আমাদের কাজটি deepfake অ্যালগরিদমগুলিকে প্রশিক্ষণের জন্য উপলব্ধ তথ্য অনুসারে ত্রুটিগুলির সুবিধা গ্রহণ করছে। অনুরূপ ত্রুটি থেকে শিকারের শিকার হওয়া এড়ানোর জন্য, আমরা আমাদের সিস্টেমকে খোলা এবং বন্ধ চোখ উভয় ছবিগুলির একটি বড় লাইব্রেরীতে প্রশিক্ষণ দিয়েছি। এই পদ্ধতিটি ভাল কাজ করে বলে মনে হচ্ছে, এবং ফলস্বরূপ, আমরা 95% সনাক্তকরণ হার অর্জন করেছি।
অবশ্যই, গভীর গোঁফ সনাক্ত করার চূড়ান্ত শব্দ নয়। প্রযুক্তির দ্রুত উন্নতি হচ্ছে, এবং জাল ভিডিও তৈরি এবং সনাক্তকরণের মধ্যে প্রতিযোগিতা একটি দাবা খেলা অনুরূপ। বিশেষত, বন্ধ চোখ দিয়ে মুখ চিত্রগুলি বা প্রশিক্ষণের জন্য ভিডিও ক্রমগুলি ব্যবহার করে গভীরতম ভিডিওগুলিতে আলিঙ্গন করা যেতে পারে। যারা জনসাধারণকে বিভ্রান্ত করতে চায় তারা মিথ্যা ভিডিওগুলি তৈরি করতে আরও ভাল হবে - এবং প্রযুক্তিবিদ সম্প্রদায়ের আমরা এবং অন্যদের তাদের সনাক্ত করার উপায় খুঁজে বের করতে হবে।
এই নিবন্ধটি মূলত দাবায়ে লিউ কথোপকথন দ্বারা প্রকাশিত হয়েছিল। এখানে মূল নিবন্ধ পড়ুন।
"Topophilia" কি? কেন ক্রিসমাসের জন্য হোম মত কোন জায়গা নেই
"আমি ক্রিসমাসের জন্য হোম হব" ঘনিষ্ঠভাবে শুনুন এবং আপনি অন্য কোথাও ছুটির কাটাতে ঘরে এবং দুঃখের জন্য গভীর আগ্রহ দেখবেন। আপনি সম্ভবত আপনার স্থানটি কতটা প্রভাব ফেলতে পারে তা বুঝতে পারছেন না। মনোবিজ্ঞান ব্যাখ্যা করে কেন আমরা এমন জায়গায় একটি মানসিক সংযোগ অনুভব করি।
"Topophilia" কি? কেন ক্রিসমাসের জন্য হোম মত কোন জায়গা নেই
"আমি ক্রিসমাসের জন্য হোম হব" ঘনিষ্ঠভাবে শুনুন এবং আপনি অন্য কোথাও ছুটির কাটাতে ঘরে এবং দুঃখের জন্য গভীর আগ্রহ দেখবেন। আপনি সম্ভবত আপনার স্থানটি কতটা প্রভাব ফেলতে পারে তা বুঝতে পারছেন না। মনোবিজ্ঞান ব্যাখ্যা করে কেন আমরা এমন জায়গায় একটি মানসিক সংযোগ অনুভব করি।
আপনি এলোমেলোভাবে একটি এসটিআই পেতে পারেন? বিশেষজ্ঞদের ব্যাখ্যা নেই কেন এমন কিছু নেই
যৌনসম্পর্কিত রোগ সংক্রমণের বিশেষজ্ঞরা 'র্যান্ডম' এসটিআই-র মতো কোনও জিনিস নেই বলে ধারণাটির দ্বিগুণ হয়। পরিবর্তে, এই সংক্রমণগুলির জন্য ঝুঁকির কারণ আচরণে সনাক্ত করা যেতে পারে, এবং কিছু ক্ষেত্রে, জনস্বাস্থ্য বৈষম্য।