امروز: شنبه, ۱۵ اردیبهشت ۱۴۰۳ / بعد از ظهر / | برابر با: السبت 26 شوال 1445 | 2024-05-04
کد خبر: 197010 |
تاریخ انتشار : 07 آبان 1396 - 10:03 | ارسال توسط :
ارسال به دوستان
پ

به گزارش مجله علم و فناوری صلح خبر دانش > فناوری‌ – همشهری آنلاین:دانشمندان می‌گویند موفق به ابداع هوش مصنوعی شده‌اند که می‌تواند سیستم امنیتی وب‌ Captcha را فریب دهد. براساس گزارش BBC، سيستم امنيتي كاپچا (Captcha) كاربران را به چالش مي‌كشاند تا با درك تركيبي از حروف و اعداد كه معمولا ماشين‌ها در درك آنها مشكل دارند، انسان […]

به گزارش مجله علم و فناوری صلح خبر

دانش > فناوری‌ – همشهری آنلاین:
دانشمندان می‌گویند موفق به ابداع هوش مصنوعی شده‌اند که می‌تواند سیستم امنیتی وب‌ Captcha را فریب دهد.

براساس گزارش BBC، سيستم امنيتي كاپچا (Captcha) كاربران را به چالش مي‌كشاند تا با درك تركيبي از حروف و اعداد كه معمولا ماشين‌ها در درك آنها مشكل دارند، انسان بودن خود را به اثبات برسانند.

محققان الگوريتمي طراحي كرده‌اند كه چگونگي واكنش مغز انسان به اين معماهاي بصري را تقليد مي‌كند. شبكه عصبي‌اي كه مي‌تواند حروف و اعداد را از روي شكل‌هاي آنها تشخيص دهد.

اين مطالعه توسط شركتي به نام ويكاريوس انجام گرفته‌است،‌شركتي كه دو غول تكنولوژي جهان،‌جف بزوس از آمازون و مارك‌زاكربرگ از فيس‌بوك آن را در كاليفرنيا تاسيس كرده‌اند تا در زمينه هوش مصنوعي فعاليت داشته باشد.

  • كپچا(Captcha) چيست؟

Captcha كه مخفف Completely Automated Public Turing test to tell Computers and Humans Apart به معني تست عمومي كاملا خودكار تورينگ براي متمايز ساختن انسان از رايانه، در دهه 1990 با هدف جلوگيري از استفاده‌از سيستم‌هاي خودكار براي ايجاد حساب‌هاي كاربري تقلبي در وب‌سايت‌ها ايجاد شد.

كاربر زماني كه مي‌خواهد وارد حساب كاربري‌اش شود، بايد با حل كردن معمايي كوچك انسان بودن خود را به اثبات برساند، اين معما شامل شناسايي حروف، ارقام يا اشيائي است كه تغيير شكل‌ داده‌اند يا به شكلي متحرك شده‌اند. رايانه‌ها معمولا از پس اين معماها بر نمي‌آيند و گوگل ادعا دارد تست reCaptcha در اين سايت به اندازه‌اي پيچيده‌است كه درصد موفقيت انسان‌ها نيز در آن 87 است.

با اين‌همه محققان شركت ويكاريوس ادعا دارند هوش مصنوعي آنها مي‌تواند حروف و تصاوير تغيير‌شكل داده شده را شناسايي كند.

  • شبكه‌هاي عصبي

دانشمندان براي اينكه به رايانه‌ها شناسايي تصاوير را بياموزانند از شبكه‌هاي عصبي استفاده مي‌كنند، شبكه‌هايي بزرگ از رايانه‌هايي كه براي حل كردن معماها آموزش ديده‌اند.

يك شبكه عصبي شامل صدها لايه است كه با الهام از مغز انسان ايجاد شده‌اند و هر لايه بخشي متفاوت از معما را بررسي مي‌كند. پاسخ‌ها از تمامي لايه‌ها به تدريج با يكديگر تلفيق شده و يك نتيجه نهايي به دست مي‌آيد.

با اين‌همه شبكه‌هاي عصبي را بايد با زحمت فراوان و با استفاده از هزاران قطعه عكس آموزش داد و همين موضوع ايجاد اين شبكه‌ها را به كاري دشوار تبديل ساخته‌است. اما محققان ويكاريوس شبكه‌اي به نام RCN را ايجاد كرده‌اند كه فرايند دقيق مغز انسان را تقليد كرده و در عين حال نسبت به يك شبكه عصبي به قدرت محاسباتي كمتري نياز دارد.

مغز انسان از اين توانايي برخوردار است كه تصاوير را از روي شكل و بافت آنها شناسايي كند، حتي اگر تصوير ناواضح و كدر باشد. ويكاريوس نيز الگوريتمي براي RCN ايجاد كرده‌است كه مي‌تواند با تحليل پيكسل‌هاي يك عكس آنها را شناسايي كند.

  • حملات كپچايي

در سال ۲۰۱۳ شرکت ویکاریوس اعلام کرد با دقت ۹۰ درصد، قادر به شکستن قفل کلید معماهای کپچایی شده که در سایت‌های گوگل، یاهو، پی‌پل استفاده شده است.

از آن زمان تاكنون طراحان كپچا تست‌هاي خود را دشوارتر ساخته‌اند اما اكنون براي بار دوم محققان اين شركت مي‌گويند هوش مصنوعي آنها مي‌تواند در 66.6 درصد از موارد تست‌هاي reCaptcha در گوگل را حل كند.

اين نرم‌افزار جديد توانسته تست‌هاي reCaptcha كه توسط مولد كپچاي BotDetect ايجاد شده‌اند را با موفقيت 64.4 درصدي، كپچاهاي سايت ياهو را با دقت 57.4 درصدي و سايت پي‌پل را با دقت 57.1 درصدي حل كند.

Let’s block ads! (Why?)

RSS

اگر خبر یا گزارشی دارید از بخش خبرنگاران صلح خبر برای ما ارسال نمایید.

خبرنگاران صلح خبر

قوانین خبرنگاران صلح خبر

  1. در صورت تمایل اعلام نمایید تا اخبار و گزارش ها با نام خود شما منتشر گردد.
  2. شما می توانید از بخش خبرنگاران صلح خبر، اخبار و گزارش های خود را ارسال نمایید.
  3. شما می توانید اخبار و گزارش ها را به ایمیل solhkhabar@yahoo.com ارسال نمایید.
  4. لطفا در ارسال اخبار و تصاویر و گزارش های خود قوانین و مقرارت را رعایت فرمایید.
  5. از ارسال مطالب خلاف عفت عمومی اکیدا خودداری فرمایید.
  6. از ارسال کاریکاتورهای توهین آمیز یا تصاویر موهن اکیدا خودداری فرمایید.
  7. رعایت کپی رایت در مطالب ارسالی الزامی است.
  8. در صورت مشاهده تخلف پس از تذکر ، حساب کاربر خاطی بلافاصله حذف می گردد.

گروه وبگردی صلح خبر

منبع خبر ( ) است و صلح خبر | پایگاه اخبار صلح ایران در قبال محتوای آن هیچ مسئولیتی ندارد. چنانچه محتوا را شایسته تذکر میدانید، خواهشمند است کد خبر را به شماره 300078  پیامک بفرمایید.
    برچسب ها:
لینک کوتاه خبر:
×
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسطصلح خبر | پایگاه اخبار صلح ایران در وب سایت منتشر خواهد شد
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد
  • لطفا از تایپ فینگلیش بپرهیزید. در غیر اینصورت دیدگاه شما منتشر نخواهد شد.
  • نظرات و تجربیات شما

    نشانی ایمیل شما منتشر نخواهد شد.

    نظرتان را بیان کنید