الإنسان أو الروبوت ودور الذكاء الاصطناعي في اكتشاف البوت.
إن سماع الصوت الجديد لجون لينون في أغنية البيتلز المنفردة «الأخيرة» «Now and Then» كما لو كانت بالأمس، أثبت أنه لم يكن نجاحًا كبيرًا لدى المعجبين فحسب، بل حقق أيضًا شيئًا مختلفًا تمامًا، متجاوزًا في طبيعته تقريبًا.
إن الاندماج في الإنسان، مع المسار الصوتي المستخرج من الذكاء الاصطناعي، والمقطع من شريط كاسيت قديم تم إلقاؤه في الدرج، قد أعطانا شيئًا جديدًا، إطلاقًا قويًا وعاطفيًا لا يمكن إنكاره للعاطفة الإنسانية.
في أقل من شهر، حصدت 34 مليون مشاهدة لقناة الفيديو الرسمية على YouTube وحده. يا للمفارقة، لقد تطلب الأمر آلة لإعادة الدفء والإنسانية المذهلين لأحد الأبطال الحقيقيين للشعب إلينا.
إنسان أم بوت؟
يعمل الذكاء الاصطناعي على طمس الخطوط في كل مكان. من التزييف العميق، إلى الوجوه التي تم إنشاؤها بواسطة الذكاء الاصطناعي، إلى الواجبات المنزلية التي تم إنشاؤها بواسطة Chat GPT، تزداد صعوبة معرفة الفرق بين الإنسان والروبوت.
في VerifiedVisitors، نستخدم الذكاء الاصطناعي لاكتشاف الروبوتات من البشر، ونحن متخصصون في اكتشاف الروبوتات الأكثر تخصيصًا مثل الروبوتات، التي تتجنب طرق الكشف التقليدية.
في الرسم البياني أدناه، يمكننا أن نرى مصفوفة الاكتشاف البسيط استنادًا إلى سمعة IP واكتشاف التوقيع، والانتقال إلى بصمات الأصابع، ثم اكتشاف أجهزة الروبوتات الحقيقية، وأخيرًا الروبوتات المخصصة، التي تجتاز اختبار CAPTCHA ولديها مسارات الماوس وغيرها من السمات الشبيهة بالبشر.
برنامج اكتشاف البوت القديم
فشل الاكتشاف المستند إلى التوقيع وسمعة IP
تستخدم معظم برامج اكتشاف الروبوتات الأساليب القائمة على التوقيع وسمعة IP لاكتشاف هجمات الروبوت المعروفة. يعمل هذا جيدًا مع الروبوتات الأساسية ذات التوقيعات الثابتة التي تصل إلى الخوادم باستمرار، ولكنها لا تعمل مع الروبوتات المتطورة القادرة على إخفاء أصولها ومحاكاة السلوك الشبيه بالإنسان، والتي تغير توقيعها ديناميكيًا.
اكتشاف بصمات الأصابع والاستدلال فقط
تستخدم عمليات اكتشاف الروبوتات الأخرى على نطاق واسع بصمات الأصابع والاستدلال، والتي تعمل مرة أخرى بشكل جيد جدًا لاكتشاف الروبوتات الأساسية، ولكنها لا تعمل جيدًا مع شبكات الروبوت ومزود خدمة الإنترنت المتطور والوكلاء المتنقلين الذين يستخدمون أجهزة حقيقية ستجتاز اختبار بصمات الأصابع.
بصمات الأصابع لها أيضًا عيب أساسي. يمكن إجراء هندسة عكسية للبرامج النصية من جانب العميل وإزالة التشويش عليها للكشف بالضبط عما تفعله البرامج النصية. على الرغم من أن عملية إزالة التشويش مؤلمة وتستغرق وقتًا طويلاً، إلا أنه سيتم الكشف عن المعلمات الدقيقة للطلب القائم على التوقيع في النهاية بصبر كافٍ. تسمح إزالة التشويش للهاكر بإجراء هندسة عكسية للمعلمات المتوقعة، ثم تعبئة بصمة الإصبع بالاستجابات المناسبة لاجتياز عمليات التحقق من بصمات الأصابع في كل مرة.
تم تصميم اختبار CAPTCHA لتمييز البوت عن الفشل البشري.
أخيرًا، اختبار CAPTCHA، المصمم ليكون الاختبار النهائي للإنسان أو الروبوت، يحتوي أيضًا على عيب أساسي. لا يعرف معظم الأشخاص عمومًا أن نتائج CAPTCHA تُستخدم كبيانات تدريب ضخمة لتشغيل نماذج اكتشاف صور التعلم الآلي. تؤدي البيانات التي لا تعد ولا تحصى المقدمة في الواقع إلى إنشاء بيانات تدريب مصنفة دقيقة للغاية يستخدمها ML للتعلم المستمر وتحسين خوارزمياته، وهي أحد الأسباب الرئيسية لتحسن خوارزميات التعرف على صور ML بشكل كبير خلال السنوات القليلة الماضية.
بينما كان البشر يهدرون مليارات الساعات في إكمال اختبارات CAPTCHA المحبطة، كانت الآلات مشغولة بتعلم كيفية بناء نماذج التعرف على الصور الدقيقة للغاية التي تستخدمها الآن شركات الذكاء الاصطناعي المولدة لتشغيل بعض أحدث الصور المتطورة. ومع ذلك، يمكن أيضًا استخدامها من قبل المتسللين للرد على حل اختبار CAPTCHA بأنفسهم، مما يؤدي إلى إنشاء هدف خاص ضخم.
اختبارات CAPTchA المستندة إلى النص
في وقت مبكر من عام 2017، تم حل اختبارات CAPTCHA المستندة إلى النص بشكل روتيني بواسطة الروبوتات التي تستخدم تقنيات OCR أو في حالات نادرة الشبكة العصبية التلافيفية (CNNs) والشبكات العصبية المتكررة (RNNs). لهذا السبب بدأت CapTchas في إدخال الكثير من الضوضاء، مثل تشويه الصورة لجعل الأمر أكثر صعوبة بالنسبة للروبوتات، ولكن أيضًا أكثر صعوبة للمستخدمين، وخاصة كبار السن. يواجه العديد من الأشخاص حقًا صعوبة في حل المشكلات ذات الضوضاء الشديدة والخلفيات المعقدة.
تجاوز reCAPTCHA
تمكنت الروبوتات منذ فترة طويلة من تجاوز Google reCaptcha باستخدام واجهة برمجة تطبيقات التعرف على الكلام لتمرير خيارات إمكانية الوصول إلى الصوت، بمجرد أن بدأت ميزة التعرف على الكلام في التحسن من حيث الجودة.
تستخدم الروبوتات أيضًا مزيجًا من التقنيات القائمة على التعلم الآلي جنبًا إلى جنب مع البحث العكسي عن الصور من Google لتجاوز reCAPTCHA من Google. سمح استخدام البحث العكسي للصور لهم بالحصول على صور عالية الجودة لوضع علامات أكثر فعالية. تؤدي هذه الهندسة العكسية الذكية جدًا إلى مستوى أعلى من الدقة، وتتطور باستمرار طرق مختلفة لتحسين علامات الصور.
كان على Google تطوير خوارزميات أكثر تحديًا مثل reCAPTCHA. كل طريقة جديدة ناجحة في البداية، حيث يجب برمجة الروبوتات حول كل تحد. في البداية، كان reCaptcha أسهل بكثير بالنسبة للمستخدم النهائي، كما أن اعتماده على القياس عن بُعد لبصمات الأصابع وحركات الماوس، جعل من الصعب جدًا تجاوز الروبوتات، لذلك كان حقًا فوزًا مزدوجًا.
ريكابتشا v3
ومع ذلك، أصبح هذا أيضًا خاضعًا لتقنيات التعلم الآلي، ولا سيما استخدام التعلم المعزز (RL) من خلال توليد حركات الماوس الشبيهة بالإنسان التي تم تعلمها من تحليل المدونات الإلكترونية من تريليونات محاولات التدريب. لم يكن من الضروري أن تفعل RL الكثير - لم تكن بحاجة إلى محاكاة حركات الماوس لمستخدم حقيقي بشكل واقعي، ولكن كان عليها أن تفعل ما يكفي لتمرير معايير reCAPTCHA v3، والتي يجب تعيينها على نطاق واسع بشكل معقول لتجنب الكثير من النتائج الإيجابية الخاطئة. هذه الفجوة واسعة بما يكفي لإجراء هندسة عكسية لنماذج ML لتكون فعالة.
إذا لم يكن هذا كافياً، مزارع الكابتشا البشرية تطورت بسرعة لاجتياز حتى أكثر التحديات إنسانية مثل الألغاز والصور المرئية التي تحتاج إلى تدويرها أو نقلها إلى موضعها. تم تجميع مزارع CAPTCHA هذه، جنبًا إلى جنب مع المتصفح الخفي وخوادم البروكسي السكنية والمتنقلة، على أنها الروبوتات كمزودي خدمة (AaS.)
لقد رأينا كيف تستخدم الروبوتات بالتأكيد الذكاء الاصطناعي على نطاق واسع لهزيمة CAPTCHA. هناك فائدة هائلة واضحة لكسر خدمات CAPTCHA، والتي من الواضح أنها تستحق حتى القدر الكبير من الوقت والجهد اللازمين.
ولكن هل تستخدم الروبوتات الذكاء الاصطناعي لتجنب اكتشاف السلوك البشري أيضًا؟
يمكن بالطبع تدريب الروبوتات على التهرب من الاكتشاف على الصفحة. أدى تحديد معدل WAF بالفعل إلى إجبار الروبوتات على الانخفاض والبطء لتجنب الاكتشاف. يمكن برمجة الروبوتات بنقاط راحة متقطعة لتأخير التقدم وتقليد أوقات القراءة وتسلسل الصفحات وما إلى ذلك التي يجب اتباعها لتبدو أكثر «طبيعية» وتقليد توقيت الإنسان.
عادةً ما يكون التهرب من الالتقاط مجرد مسألة تجربة وخطأ - سيقوم المخترق فقط بتعديل البرنامج النصي للبوت حتى يتحقق النجاح. ما لا يفعلونه هو استخدام بيانات سجل الويب لإجراء هندسة عكسية للأنماط العامة لحركة المرور البشرية، ثم حساب كيفية تجنب الاكتشاف عن طريق الاختباء في منتصف توزيع حركة المرور. ومع ذلك، لا يحتاجون حقًا إلى ذلك - يجب أن تكون التجربة البسيطة والخطأ كافيين لضمان مرور الروبوت في النهاية.
في VerifiedVisitors، نستخدم مزيجًا من سلوك المستخدم من سجلات الويب وأيضًا مسارات الماوس أو المؤشر أثناء تنقل المستخدم عبر موقع الويب. ثم يتم تحليلها بواسطة محرك الذكاء الاصطناعي للبحث عن العلامات الواضحة للروبوت أو السلوك البشري.
بالطبع، يتم أيضًا تحليل جميع عمليات القياس عن بُعد وعنوان IP ووكيل المستخدم الأخرى، ولكن الاكتشاف الحاسم للروبوتات المتقدمة ضد الإنسان غالبًا ما يوجد في السلوك المقترن بالتحليل الجنائي لحركات الماوس. حركات الماوس هي المؤشر الأكثر إنسانية لدينا، حيث أنها مدفوعة مباشرة بالمؤشر، وتختلف وفقًا للمستخدم والجهاز. إذا كان الروبوت مبرمجًا بشكل مثالي لتجنب الاكتشاف السلوكي، فهذا يعني أيضًا أنه من المحتمل ألا يفعل أي شيء ضار أو ضار - ما لم يكن قد أخفى حقًا أصوله وشوشها تمامًا.
الشبكات العدائية التوليدية (GAN) لاكتشاف الإنسان أو الروبوت
في المستقبل، تستخدم شبكات الخصومة التوليدية (GAN) شبكتين عصبيتين «متنافستين»، هما المولد والمميز، كجلسات تدريب افتراضية فعالة للفريق الأحمر ضد الفريق الأزرق تعتمد على التعلم من تحركات خصمه.
أثناء التدريب، يحاول المولد إنشاء روبوتات تعرض المزيد والمزيد من السلوكيات الشبيهة بالإنسان، في محاولة لخداع التمييزي لتصنيفها على أنها بشرية وليست روبوتات. حلقة التدريب العدائية المستمرة تعزز نفسها باستمرار. يتحسن المُميز في العثور على الروبوتات، ويقوم المولد بإعادة إنشاء سلوكيات من النوع البشري.