واضح آرشیو وب فارسی:گجت نیوز: سیستم های تشخیص چهره یکی از بالاترین سطوح کنترل های امنیتی حال حاضر جهان را در اختیار مدیران، کارمندان و افرادی که در مناطق حساس و مهم تردد می کنند، قرار می دهند. اما مانند هر سیستم دیگری و با توجه به این که هیچوقت هیچ سیستمی به طور کامل امن نیست، این روش نیز دارای مشکلات خاص خود است. شاید با خود فکر کنید که سیستم های تشخیص چهره امن ترین روش برای کنترل ورود و خروج و دسترسی افراد به مکان ها و اطلاعات خاص و محرمانه هستند، اما دانشمندان دانشگاه کارولینای شمالی در آمریکا ثابت کرده اند که بسیاری از کمپانی های سازنده ی این نوع از تجهیزات، راه درازی را پیش روی خود دارند تا بتوانند به چنین سطحی از امنیت برسند. برخی از سیستم های تشخیص چهره با یک مدل سه بعدی غیر واقعی فریب می خورند! آنها در پروژه ی تحقیقاتی جدید خود نشان داده اند که چگونه میتوان به راحتی و با ساخت یک مدل سه بعدی بر مبنای تصاویر اشخاص، سیستم های تشخیص چهره را فریب داد و از طریق نمایش این محتوا در یک فضای سه بعدی مشابه دنیای واقعیت مجازی، از سد امنیتی این نگهبانان دیجیتالی عبورد کرد؛ نکته ی عجیب، تاسف بار و ترسناک اینجاست که آنها نه از تصاویر به خصوصی برای این کار استفاده کرده اند و نه نیازی به عکاسی از خود فرد داشته اند، بلکه تنها با جمع آوری تصاویر موجود در پروفایل فیسبوک آن شخص و ساخت مدل سه بعدی بر مبنای آنها توانسته اند این سیستم امنیتی را فریب دهند! محققان کارولینای شمالی برای انجام این تحقیقات از ۲۰ فرد داوطلب استفاده کرده اند و سپس به جمع آوری تصاویر آنها از منابع اینترنتی نظیر شبکه های اجتماعی مختلف از جمله فیسبوک پرداخته اند. سپس این تصاویر برای ساخت یک مدل سه بعدی به کار رفته اند و چند انیمیشن طبیعی مانند لبخند، حرکت اعضای مختلف چهره و تغییر شکل عضله های صورت نیز به آن اضافه شده است. چشم ها نیز به گونه ای دستکاری شده اند که گویا آن مدل مانند یک شخص واقعی در حالت نگاه کردن به داخل دوربین سیستم های تشخیص چهره است. حتی جالب است بدانید که برای آن دسته از داوطلبانی که یک تصویر کامل از چهره شان وجود نداشت و یا به هر دلیلی امکان به دست آوردن چهره ی تمام رخشان وجود نداشته است، محققان خودشان دست به کار شده اند و با ساخت قسمت هایی که وجود نداشته اند و ترکیب آنها با تکسچر طبیعی و سایه زنی سازگار با دیگر قسمت های صورت، قسمت های گم شده ی پازل را پر کرده اند. نکته ی جالب تر اینجاست که تعدادی از این داوطلبان، خودشان در شغل های امنیتی و به عنوان متخصصان امنیتی فعالیت می کرده اند و ساخت مدل سه بعدی از چهره شان در گاهی از اوقات تنها با چند تصویر بی کیفیت و یا از زوایای نامناسب انجام شده است. از آنجا که این مدل ها دارای حرکت و سایه های طبیعی بوده اند، آنها در ۵۵ درصد تا ۸۵ درصد مواقع، موفق شده اند که در چهار سیستم از پنج مدل سیستم های تشخیص چهره ، دیوار امنیتی را فریب دهند و وارد سیستم شوند. به گزارش خبرگزاری Wired یکی از اعضای این تیم تحقیقاتی در ارائه ی این پروژه در کنفرانس امنیتی Usenix، اینطور توضیح داده است که مسائل مربوط به هزینه ی تولید از سوی تامین کنندگان قطعات سخت افزاری باعث می شود که گاهی از اوقات، دست یابی به سطح امنیت بالاتر، قربانی کاهش هزینه ی تولید می شود؛ به طور مثال یکی از این قطعات، دوربین های اینفرارد است که می تواند حرارت ساطع شده از سطح پوست یک چهره ی واقعی را تشخیص دهد. این قابلیت می تواند یک لایه ی امنیتی بیشتر را به سیستم های تشخیص چهره اضافه کند تا عکس های مصنوعی از چهره ی یک انسان واقعی تشخیص داده شود. شما عزیزان گجت نیوزی در صورت علاقه به دانستن جزییات بیشتر درباره ی روش به کار رفته در این تحقیقات می توانید به این لینک مراجعه کنید. منبع : engadget
یکشنبه ، ۳۱مرداد۱۳۹۵
[مشاهده متن کامل خبر]
این صفحه را در گوگل محبوب کنید
[ارسال شده از: گجت نیوز]
[تعداد بازديد از اين مطلب: 31]