تزايدت عمليات الاحتيال المدعومة بالذكاء الاصطناعي بشكل سريع. وفقًا لتقارير TRM Labs، بين مايو 2024 وأبريل 2025، زادت التقارير عن عمليات الاحتيال التي تستخدم الذكاء الاصطناعي التوليدي بنسبة 456%. كما اكتشفت Chainalysis أن 60% من الإيداعات في محافظ الاحتيال تتضمن الآن أدوات الذكاء الاصطناعي. هذا زيادة هائلة عن أكثر من 20% في عام 2024.

زيادة عمليات الاحتيال المدعومة بالذكاء الاصطناعي من 2022 إلى 2025 | المصدر: TRM Labs
ما وراء هذا الانفجار؟ يوفر الذكاء الاصطناعي الآن للغشاشين السرعة والنطاق والواقعية. يمكن للاحتيالي الواحد نشر آلاف من برامج
التصيد الاحتيالي، وإنشاء مقاطع فيديو Deepfake، وانتحال العلامات التجارية الموثوقة، وكل ذلك دون كتابة سطر واحد من الكود.
وماذا عن العملات الرقمية؟ إنها الهدف المثالي. أنت تعمل في عالم سريع التغير وغير مركزي مع معاملات غير قابلة للإلغاء. هذا يسهل على الغشاشين الهجوم ويجعل من الصعب عليك التعافي.
في هذا الدليل، ستتعلم ما هي عمليات الاحتيال المدعومة بالذكاء الاصطناعي في العملات الرقمية، كيف تعمل، وكيفية الحفاظ على الأمان عند استخدام منصات التداول، بما في ذلك BingX.
ما هي عمليات الاحتيال في العملات الرقمية المدعومة بالذكاء الاصطناعي؟
تستخدم عمليات الاحتيال في العملات الرقمية المدعومة بالذكاء الاصطناعي
الذكاء الاصطناعي لخداعك لكي تتخلى عن أموالك أو مفاتيحك الخاصة أو بيانات تسجيل الدخول الخاصة بك. هذه العمليات تتجاوز التصيد الاحتيالي التقليدي. إنها أكثر ذكاءً وأسرع وأكثر إقناعًا من أي وقت مضى.
غالبًا ما تعتمد عمليات الاحتيال التقليدية في العملات الرقمية على الأساليب اليدوية. فكر في الرسائل الإلكترونية المزيفة ذات القواعد اللغوية السيئة أو خطط الهدايا البسيطة على وسائل التواصل الاجتماعي. من السهل اكتشافها إذا كنت تعرف ما الذي تبحث عنه.
لكن الذكاء الاصطناعي يغير قواعد اللعبة. يستخدم المحتالون الآن التعلم الآلي والذكاء الاصطناعي التوليدي من أجل:
1. إنشاء محتوى واقعي وشخصي يبدو بشريًا
تقوم أدوات الذكاء الاصطناعي بإنشاء رسائل بريد إلكتروني مزيفة ورسائل احتيالية تبدو طبيعية. إنها تحاكي النغمة البشرية، وتستخدم قواعد لغوية مثالية، وحتى تضيف لمسات شخصية استنادًا إلى نشاطك على الإنترنت. هذه الرسائل تبدو حقيقية، وليست آلية. وهذا يجعل من الصعب جدًا اكتشافها مقارنة برسائل البريد الإلكتروني الاحتيالية السابقة.
تعد مقاطع الفيديو Deepfake واستنساخ الصوت أبعد من ذلك. يمكن للمحتال الآن نسخ وجه وصوت شخص ما بدقة مخيفة. قد تشاهد فيديو أو تسمع مكالمة وتصدق حقًا أنها من CEO أو مؤثر أو صديق.
2. إطلاق هجمات ضخمة بسرعة البرق
يساعد الذكاء الاصطناعي المحتالين على التحرك بسرعة. مع بعض الإرشادات، يمكنهم إنشاء آلاف من رسائل التصيد الاحتيالي في ثوانٍ. يمكن تخصيص كل رسالة، تحديد موقعها، وإرسالها عبر منصات متعددة، بما في ذلك البريد الإلكتروني وTelegram وDiscord وحتى الرسائل النصية.
كانت هذه النطاقات تتطلب فرقًا كاملة في الماضي. الآن، يمكن لمحتال واحد باستخدام أدوات الذكاء الاصطناعي المناسبة استهداف آلاف المستخدمين دفعة واحدة.
3. تجاوز الفلاتر التقليدية وأنظمة الأمان
تتجاوز عمليات الاحتيال بالذكاء الاصطناعي أيضًا الفلاتر الأمنية التقليدية. تبحث الأنظمة القديمة عن أخطاء إملائية، أخطاء في القواعد اللغوية، أو روابط تصيد معروفة. لكن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي لا يرتكب تلك الأخطاء. إنه يتكيف بسرعة. يستخدم مجالات جديدة، يدير الروابط، وحتى يدرج أحرف غير مرئية لخداع الفلاتر.
أنظمة اكتشاف الاحتيال القديمة لا تستطيع مجاراة ذلك. لهذا السبب غالبًا ما تمر عمليات الاحتيال المدعومة بالذكاء الاصطناعي دون أن يلاحظها أحد.
هذه الهجمات أكثر إقناعًا لأنها تحاكي الطريقة التي يتحدث بها الناس ويكتبون ويتصرفون. كما أنها أسهل في التوسع. باستخدام أدوات مثل WormGPT أو FraudGPT، يمكن لمهاجم واحد إطلاق آلاف من عمليات الاحتيال في غضون دقائق.

التدفقات والإيداعات من عمليات الاحتيال باستخدام الذكاء الاصطناعي في ازدياد | المصدر: Chainalysis
وفقًا لـ Chainalysis، فإن حوالي 60٪ من جميع الإيداعات في محافظ الاحتيال الآن تأتي من عمليات تستخدم أدوات الذكاء الاصطناعي. هذا يمثل ثلاثة أضعاف الرقم من العام الماضي.
الذكاء الاصطناعي يمنح المحتالين ميزة، لكنك لست مضطرًا لأن تكون ضحيتهم القادمة. تعلم كيفية عمل هذه العمليات الاحتيالية هو الخطوة الأولى للبقاء آمنًا.
أنواع الاحتيال في العملات المشفرة المدعومة بالذكاء الاصطناعي
تأتي عمليات الاحتيال في العملات المشفرة المدعومة بالذكاء الاصطناعي بأشكال عديدة. بعضها يخدعك باستخدام أصوات أو مقاطع فيديو مزيفة. البعض الآخر يستخدم الروبوتات للدردشة لكسب ثقتك أو ينشئ تطبيقات تداول مزيفة تبدو قانونية.
دعونا نستعرض أكثر الأنواع شيوعًا وحالات واقعية تظهر مدى خطورتها.
1. عمليات الاحتيال باستخدام Deepfake

كيف تم تحويل الأموال من عملية احتيال Deepfake | المصدر: TRM Labs
تستخدم عمليات الاحتيال باستخدام Deepfake مقاطع الفيديو أو الصوت التي يتم إنشاؤها باستخدام الذكاء الاصطناعي لتقمص شخصيات عامة أو مؤثرين أو حتى المديرين التنفيذيين في شركتك. يقوم المحتالون بالتلاعب بتعابير الوجه وأنماط الصوت لجعل المحتوى يبدو حقيقيًا. غالبًا ما تروج هذه الفيديوهات المزيفة لعروض كريبتو مزيفة أو تطلب منك إرسال الأموال إلى عناوين محافظ محددة.
إحدى الحالات الأكثر إثارة للقلق حدثت في أوائل عام 2024. انضم موظف مالي في شركة متعددة الجنسيات في هونغ كونغ إلى مكالمة فيديو مع ما بدا أنه CFO والمديرين التنفيذيين في الشركة. طلبوا منه تحويل 25 مليون دولار. كانت فخًا. كانت المكالمة Deepfake، وكانت جميع الوجوه والأصوات مولدة باستخدام الذكاء الاصطناعي. لم يكتشف الموظف ذلك إلا بعد فوات الأوان.
تم استخدام نفس التكتيك لتقمص شخصيات مثل إيلون ماسك. في عملية احتيال واحدة، قام فيديو Deepfake لماسك بالترويج لعروض مجانية للبيتكوين. تم إخبار المشاهدين بإرسال
BTC إلى
محفظة للحصول على ضعف المبلغ. قامت Chainalysis بتتبع محفظة واحدة جمعت ملايين الدولارات خلال بث مباشر مزيف على YouTube.
2. التصيد الاحتيالي المولد بواسطة الذكاء الاصطناعي

مثال على موقع تصيد احتيالي تم إنشاؤه بواسطة الذكاء الاصطناعي | المصدر: MailGun
لقد تطور التصيد الاحتيالي بمساعدة الذكاء الاصطناعي. بدلاً من الأخطاء النحوية والرابط المشبوه، تبدو هذه الرسائل حقيقية وتشعر وكأنها شخصية. يستخدم المحتالون الذكاء الاصطناعي لجمع البيانات العامة عنك، ثم إنشاء رسائل بريد إلكتروني أو رسائل مباشرة أو حتى مواقع ويب كاملة تتناسب مع اهتماماتك وسلوكك.
قد يأتي الاحتيال عبر Telegram أو Discord أو البريد الإلكتروني أو حتى LinkedIn. قد تتلقى رسالة تحاكي دعم BingX، تطلب منك "تحقق من حسابك" أو "استلام مكافأة". يؤدي الرابط إلى صفحة مزيفة تشبه تمامًا الصفحة الحقيقية. بمجرد إدخال معلوماتك، ينتهي كل شيء.
ذكرت TRM Labs زيادة بنسبة 456٪ في محاولات التصيد الاحتيالي المولدة بواسطة الذكاء الاصطناعي في غضون عام واحد فقط. تستخدم هذه الهجمات الآن نماذج لغوية كبيرة (LLMs) لمحاكاة النغمة البشرية والتكيف مع لغات مختلفة. يستخدم بعض المحتالين الذكاء الاصطناعي لتجاوز فحوصات
KYC، وإنشاء أوراق اعتماد مزيفة، أو محاكاة الدردشة المباشرة مع "وكلاء الدعم".
3. منصات التداول والروبوتات المزيفة المعتمدة على الذكاء الاصطناعي

كيف استخدم MetaMax الذكاء الاصطناعي لإنشاء شركة وهمية مع موظفين وهميين | المصدر: TRM Labs
يتمكن المحتالون أيضًا من بناء منصات تداول كاملة تدعي استخدام الذكاء الاصطناعي لتحقيق أرباح تلقائية. تعد هذه الأدوات المزيفة بعوائد مضمونة، وتنفيذ صفقات "ذكية"، أو معدلات نجاح لا تقهر. ولكن بمجرد أن تودع عملتك المشفرة، تختفي.
هذه العمليات الاحتيالية غالبًا ما تبدو مشروعة. تحتوي على لوحات تحكم أنيقة، ورسوم بيانية حية، وشهادات، وكل ذلك مدعوم بالصور والرموز المولدة بواسطة الذكاء الاصطناعي. يقدم البعض حتى صفقات تجريبية لتزوير الأداء. في عام 2024، استخدمت مواقع مثل MetaMax أفاتار الذكاء الاصطناعي لمديري التنفيذ الوهميين لكسب الثقة وجذب المستخدمين غير المشتبه بهم.
في الواقع، لا توجد استراتيجية تعتمد على الذكاء الاصطناعي وراء هذه المنصات، بل فخ مصمم جيدًا. بمجرد أن تدخل الأموال، ستكتشف أنه لا يمكنك سحب أي شيء. بعض المستخدمين أفادوا بأن محفظاتهم قد تم تصفيتها بعد توصيلها بهذه المواقع. يرسل الروبوتات الذكية أيضًا "إشارات" عبر Telegram أو Twitter لدفعك إلى صفقات محفوفة بالمخاطر أو غير موجودة.
4. استنساخ الصوت والمكالمات في الوقت الفعلي

مثال على عملية احتيال من خلال استنساخ الصوت باستخدام الذكاء الاصطناعي | المصدر: FTC
تسمح تقنية استنساخ الصوت باستخدام الذكاء الاصطناعي للمحتالين بأن يبدو صوتهم تمامًا كصوت شخص تعرفه. يمكنهم إعادة إنشاء صوت الرئيس التنفيذي أو مديرك أو حتى أحد أفراد عائلتك، ثم يتصلون بك مع تعليمات عاجلة لإرسال عملة مشفرة أو الموافقة على معاملة.
تم استخدام هذه التقنية في عملية السطو التي بلغت قيمتها 25 مليون دولار في هونغ كونغ التي تم الإشارة إليها سابقًا. لم يتم خداع الموظف فقط من خلال مقاطع فيديو مزيفة؛ بل قام المهاجمون أيضًا باستنساخ الأصوات في الوقت الفعلي لإتمام الخداع. بضع ثوانٍ فقط من الصوت تكفي للمحتالين لإعادة إنشاء صوت شخص ما بدقة مذهلة.
غالبًا ما تأتي هذه المكالمات خارج ساعات العمل أو في حالات الطوارئ. قد تسمع شيئًا مثل: “مرحبًا، هذا أنا. تم تجميد حسابنا. أحتاج منك إرسال
USDT الآن.” إذا بدا الصوت مألوفًا وكان الطلب عاجلًا، قد لا تشك في الأمر، خاصة إذا بدا الرقم شرعيًا.
5. عملية الاحتيال "ذبح الخنازير" باستخدام الذكاء الاصطناعي

كيف يعمل الاحتيال "ذبح الخنازير" | المصدر: TrendMicro
احتيال "ذبح الخنازير" هو خداع طويل الأمد. يتطلب بناء الثقة على مدار فترة طويلة، ربما أسابيع أو حتى شهور. يتظاهر المحتالون بأنهم اهتمام رومانسي أو شريك تجاري، وغالبًا ما يستخدمون تطبيقات المواعدة أو Telegram أو WeChat. بمجرد أن يكسبوا ثقتك، يقنعونك بالاستثمار في منصة عملات مشفرة مزيفة.
الآن، هم يستخدمون روبوتات الدردشة المعتمدة على الذكاء الاصطناعي لتوسيع هذه الاستراتيجية. تقوم هذه الروبوتات بإجراء محادثات طبيعية وسلسة. يتابعون بانتظام، يجيبون على أسئلتك، وحتى يقدمون نصائح حول الحياة. كل شيء مكتوب مسبقًا، لكنه يبدو حقيقيًا.
في عام 2024، أفادت Chainalysis أن عمليات الاحتيال "ذبح الخنازير" المدعومة بالذكاء الاصطناعي حققت أكثر من 9.9 مليار دولار عالميًا. بعض المحتالين يستخدمون حتى تقنيات deepfake لإجراء مكالمات فيديو، يظهرون وجوهًا ودودة تبدو بشرية. يقوم الضحايا بإيداع مبالغ صغيرة، ويرون أرباحًا مزيفة، ثم يستثمرون أكثر حتى يختفي الموقع أو يتم حظر سحب الأموال.
كل هذه الاحتيالات تعتمد على شيء واحد: ثقتك. من خلال تقليد الأشخاص الحقيقيين، والمنصات، وفرق الدعم، تجعل أدوات الذكاء الاصطناعي من الصعب التمييز بين ما هو حقيقي وما هو مزيف. ولكن بمجرد أن تعرف كيف تعمل هذه الاحتيالات، ستكون أكثر استعدادًا لوقفها. كن يقظًا ولا تدع الذكاء الاصطناعي يسرق عملاتك المشفرة.
كيفية الدفاع عن نفسك من الاحتيالات باستخدام الذكاء الاصطناعي
تزداد الاحتيالات باستخدام الذكاء الاصطناعي ذكاءً، ولكن يمكنك أن تكون خطوة إلى الأمام. اتبع هذه النصائح لحماية عملاتك المشفرة وراحة بالك.
1. قم بتمكين 2FA واستخدم مفتاح الأجهزة إذا أمكن: قم بتمكين
المصادقة الثنائية (2FA) لحسابك على BingX وتطبيقات المحفظة الخاصة بك. استخدم تطبيقًا مثل
Google Authenticator أو جهازًا فعليًا مثل YubiKey. سيضيف هذا طبقة أمان ثانية، حتى إذا تم اختراق كلمة مرورك.
2. تحقق من الروابط وعناوين URL بعناية: قبل أن تنقر على أي شيء، مرر المؤشر فوق الروابط للتحقق من عنوان URL. تأكد من أنه يتطابق مع النطاق الرسمي لـ BingX. ضع صفحات تسجيل الدخول في المفضلة وتجنب النقر على الروابط المرسلة عبر البريد الإلكتروني أو Discord أو Telegram.
3. كن متشككًا في أي شيء يبدو جيدًا جدًا: إذا وعدك شخص ما بـ "أرباح مضمونة" أو عوائد مضاعفة من روبوت AI أو أداة تداول، فهذه عملية احتيال. لا تضمن AI الأرباح، ولا يقدم أحد عملة مشفرة مجانًا بدون شروط.
4. لا تشارك أبدًا عبارات الاسترداد أو المفاتيح الخاصة: لن يطلب منك أحد من BingX أو أي منصة شرعية تقديم مفاتيحك الخاصة. إذا طلب منك شخص ما ذلك، فهو يحاول سرقة أموالك. لا تدخل عبارات الاسترداد على مواقع ويب عشوائية ولا ترسلها إلى أي شخص يدعي أنه يمكنه مساعدتك.
5. استخدم الدعم الرسمي فقط من BingX: غالبًا ما يتنكر المحتالون كموظفي دعم. دائمًا ما يمكنك الوصول إلى دعم BingX عبر الموقع الرسمي أو التطبيق. لا تثق في الرسائل المباشرة غير المطلوبة حتى لو بدت شرعية.
6. احتفظ بالعملات المشفرة طويلة الأجل في محفظة أجهزة: احتفظ بمعظم عملاتك المشفرة في تخزين بارد.
محافظ الأجهزة مثل
Ledger أو Trezor تحتفظ بمفاتيحك الخاصة في وضع غير متصل بالإنترنت، مما يجعلها آمنة من الهجمات عن بُعد، حتى إذا وقعت ضحية لعملية احتيال تصيد عبر الإنترنت.
7. ابق على اطلاع من خلال موارد التعلم الخاصة بـ BingX: الاحتيالات تتطور بسرعة. يجب أن تتطور معرفتك أيضًا. تابع
BingX Academy للحصول على نصائح أمان محدثة، وتحذيرات الاحتيال، وأدلة الأمان للعملات المشفرة. التعليم هو أفضل دفاع لك.
الخاتمة والنقاط الرئيسية
عمليات الاحتيال في العملات المشفرة المدعومة بالذكاء الاصطناعي تتطور بسرعة. لكن مع العادات الصحيحة، يمكنك تجنب أن تصبح هدفًا.
كن يقظًا تجاه العلامات الحمراء مثل مقاطع الفيديو المزيفة باستخدام تقنية Deepfake، والرسائل المولدة باستخدام الذكاء الاصطناعي، أو منصات التداول المزيفة. احمِ أصولك باستخدام أدوات مثل 2FA، والمحافظ الأجهزة، وعناوين URL الآمنة. لا تشارك أبدًا عبارة الاسترداد الخاصة بك. وتحقق دائمًا قبل النقر أو إرسال أي شيء.
الأهم من ذلك هو الاستمرار في التعلم. كلما زادت معرفتك، كلما كنت أكثر أمانًا. تابع BingX Academy للحصول على أحدث التحديثات، ونصائح الأمان، والتعليم في مجال العملات المشفرة، حتى تتمكن من التداول بثقة في عالم سريع التغير.
القراءة ذات الصلة