محتالو التشفير باستخدام تقنية التزييف العميق بالذكاء الاصطناعي لانتحال عملية التحقق من اعرف عميلك (KYC) في عمليات التبادل ، كما قال رئيس أمان Binance


يجد المحتالون والمتسللون المشفرون طرقًا جديدة لاختراق تدابير السلامة ، حتى مع تسريع صناعة التشفير من محاولات إضافة طبقات من الأمان المتقدم إلى العديد من الأنظمة الأساسية. يستغل المتسللون والمحتالون الآن تقنية التزييف العميق للذكاء الاصطناعي لخرق أمان تبادلات التشفير والشركات المرتبطة بـ Web3. باستخدام تقنية deepfake AI ، تهدف العناصر سيئة السمعة إلى تجاوز معايير تحديد الهوية التي وضعتها المنصات ، كما قال كبير مسؤولي الأمن في Binance ، جيمي سو في مقابلة أجريت معه مؤخرًا

Deepfakes هي صور أو مقاطع فيديو تم إنشاؤها بشكل مصطنع مصممة لتكرار الصوت بشكل مقنع بالإضافة إلى ملامح الوجه وتعبيرات الفرد – سواء أكان حيًا أم متوفًا. يتم استخدام أدوات الذكاء الاصطناعي (AI) والتعلم الآلي (ML) لإنشاء التزييف العميق باستخدام رسومات واقعية.

إذا نجح المحتالون في إنشاء مزيف عميق لمستثمري العملات المشفرة ، فإن ذلك يزيد من فرصهم في تجاوز أمان منصات التشفير وسرقة أموال المستخدمين. “سيبحث المخترق عن صورة عادية للضحية عبر الإنترنت في مكان ما. بناءً على ذلك ، باستخدام أدوات مزيفة عميقة ، يمكنهم إنتاج مقاطع فيديو للقيام بالتجاوز. تتطلب بعض عمليات التحقق من المستخدم ، على سبيل المثال ، أن يغمض عينه اليسرى أو ينظر إلى اليسار أو اليمين ، أو ينظر إلى أعلى أو ينظر إلى أسفل. وقال سو لموقع CoinTelegraph إن التزييف العميق متقدم بما يكفي اليوم بحيث يمكنهم تنفيذ هذه الأوامر بالفعل.

منذ بضعة أشهر حتى الآن ، سلط اللاعبون في قطاع التشفير الضوء على التهديد المتزايد الذي تشكله تقنية التزييف العميق الناتجة عن الذكاء الاصطناعي على الضحايا غير المطلعين وغير المرتابين. في فبراير 2023 ، ظهر فيديو التزييف العميق للرئيس التنفيذي لشركة Binance Changpeng Zhao على وسائل التواصل الاجتماعي. في هذا المقطع ، يمكن سماع Zhao الذي تم إنشاؤه بشكل مصطنع وهو يدعو الناس إلى تداول العملات المشفرة معهم حصريًا.

كما تم رصد مقطع فيديو مماثل لـ Deepfake لـ Elon Musk وهو يشارك نصائح مضللة بشأن الاستثمار في التشفير على وسائل التواصل الاجتماعي في وقت سابق من هذا الشهر.

نظرًا لأن مقاطع الفيديو المزيفة العميقة هذه جذابة للغاية ، فقد لا يتمكن الكثير من الأشخاص من اكتشاف بعض علامات التحذير على أنها مزيفة. في المستقبل القريب ، يتوقع Su أن الذكاء الاصطناعي سيكون قادرًا على اكتشاف الأجزاء غير المستوية من التزييف العميق وسيتحسن جودته.

“عندما ننظر إلى مقاطع الفيديو هذه ، هناك أجزاء معينة منها يمكننا اكتشافها بالعين البشرية. على سبيل المثال ، عندما يُطلب من المستخدم أن يدير رأسه إلى الجانب. سوف يتغلب الذكاء الاصطناعي [them] متأخر , بعد فوات الوقت. لذا ، فهو ليس شيئًا يمكننا الاعتماد عليه دائمًا. حتى لو تمكنا من التحكم في مقاطع الفيديو الخاصة بنا ، فهناك مقاطع فيديو ليست مملوكة لنا. لذا ، هناك شيء واحد ، مرة أخرى ، هو تعليم المستخدم ، “قال سو في المقابلة.

يقدر تقرير حديث من شركة CertiK للأبحاث في blockchain أن 103 مليون دولار (حوالي 840 كرور روبية) قد سُرقت في عمليات استغلال العملة المشفرة هذا العام في أبريل. ظهرت عمليات احتيال الخروج والقروض السريعة كأكبر مصدر للأموال المسروقة في جرائم التشفير. في الأشهر الأربعة الأخيرة من عام 2023 ، تقدر شركة CertiK أن 429.7 مليون دولار (حوالي 3510 كرور روبية) قد سُرقها محتالو التشفير والمتسللون.


تم إطلاق Samsung Galaxy A34 5G مؤخرًا من قبل الشركة في الهند إلى جانب الهاتف الذكي Galaxy A54 5G الأغلى ثمناً. كيف يتعامل هذا الهاتف مع Nothing Phone 1 و iQoo Neo 7؟ نناقش هذا والمزيد على Orbital ، بودكاست Gadgets 360. يتوفر Orbital على Spotify و Gaana و JioSaavn و Google Podcasts و Apple Podcasts و Amazon Music وفي أي مكان تحصل فيه على البودكاست الخاص بك.
قد يتم إنشاء روابط الشركات التابعة تلقائيًا – راجع بيان الأخلاقيات الخاص بنا للحصول على التفاصيل.




اكتشاف المزيد من مجلة الإخلاص

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

Comments

No comments yet. Why don’t you start the discussion?

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *