لا شك أنك لاحظت التطور التقني الهائل المتمثل في الذكاء الاصطناعي (AI)، فهو قادر على القيام بالعديد من المهام، مثل الإجابة على الأسئلة وإنشاء الصور ومقاطع الفيديو والنصوص والرموز البرمجية. لكن هذه القدرات تفتح الباب أمام احتيال إلكتروني جديد ومتطور، بل وتضفي قوة على أساليب الاحتيال الحالية.
سواء كانت حيل الذكاء الاصطناعي جديدة تمامًا أو مُحسّنة للأساليب القديمة، فإن الهدف عادةً هو الحصول على معلوماتك الخاصة لتحقيق مكاسب مالية أو سرقة الهوية أو غيرها من الجرائم. تعتمد معظم حيل الذكاء الاصطناعي، وإن لم تكن كلها، على عنصر الاصطياد الاحتيالي، حتى لو لم تكن حيل اصطياد احتيالي بالكامل.
في هذه المقالة، نلقي نظرة على كيفية قيام الذكاء الاصطناعي بإعادة تشكيل مشهد التهديدات الرقمية من خلال مراجعة بعض أكثر حيل الذكاء الاصطناعي شيوعًا وتقديم نصائح حول كيفية تجنبها. ولكن قبل أن نتعمق في ذلك، دعونا نلقي نظرة عامة سريعة على حيل الاصطياد الاحتيالي من منظور الذكاء الاصطناعي.
روابط سريعة
الاصطياد بالخيط (باستخدام الذكاء الاصطناعي)
ليس الاحتيال الإلكتروني بالأمر الجديد. لطالما انتحل الناس شخصيات مختلفة لخداع غير المدركين وتحصيل معلومات قيّمة منهم منذ الأزل. ثم وفّر الإنترنت للمجرمين مساحة هجوم ضخمة لتنفيذ عمليات الاحتيال الإلكتروني عبر الإنترنت.
من المرجح أنك تلقيت بريدًا إلكترونيًا احتياليًا في وقت ما، يدّعي أن معلوماتك الشخصية أو المالية مطلوبة لتوصيل طردك، أو لإتمام عملية استرداد أموالك، أو لإعادة حسابك إلى حالة العمل.
الآن، مع الذكاء الاصطناعي، حصل الاحتيال الإلكتروني عبر الإنترنت على دفعة قوية. لم تعد العلامات القديمة الدالة على الاحتيال مثل الأخطاء الإملائية والعلامات التجارية “المزيّفة” كافية. فالذكاء الاصطناعي التوليدي يجعل هذه الرسائل الإلكترونية أكثر دقة واحترافية. كما سيبدو الموقع الإلكتروني المزيّف الذي سيوجهك إليه رابط البريد الإلكتروني الضار أكثر شرعية وأكثر صعوبة في تحديده على أنه احتيالي – ويمكنك شكر الذكاء الاصطناعي على ذلك.
كن متشككًا في الغرباء عبر الإنترنت الذين يدّعون أنهم يريدون مساعدتك. هذا غير محتمل مثل حاجة براد بيت لأموالك لدفع تكاليف الجراحة…
عمليات الاحتيال باستخدام تقنية التزييف العميق (Deepfake)
التزييف العميق (Deepfakes) هي مقاطع فيديو مقنعة للغاية تم إنشاؤها بواسطة الذكاء الاصطناعي، تُظهر أشخاصًا حقيقيين يقولون ويفعلون أشياءً لم يقولوها أو يفعلوها في الواقع. بعبارة أخرى، إنها مقاطع فيديو مزيفة مصممة لتضليلك. ويُستخدم مصطلح “التزييف العميق” للتأكيد على مدى إقناع هذه التقنية وقدرتها على الخداع. تستخدم تقنية التزييف العميق مقاطع الفيديو والتسجيلات الصوتية الموجودة لإنشاء نسخة طبق الأصل لشخص حقيقي. على الرغم من أن هذه التقنية لها استخدامات مشروعة في صناعة الأفلام والتلفزيون (مثل المؤثرات الخاصة)، إلا أنها تُستخدم في سياق عمليات الاحتيال بالذكاء الاصطناعي لخداعك وتصديق معلومات زائفة. وبمجرد تصديقك لهذه المعلومات، قد تكون على استعداد لتقديم بعض المعلومات المالية أو الشخصية.
إذا قمت بذلك، فأنت تُسلم هذه التفاصيل إلى المُحتال.
في حال قمت بذلك، ستكون قد سلمت معلوماتك إلى المُخترق.
مثال على احتيال التزييف العميق
في أواخر عام 2023، انتشر على فيسبوك مقطع فيديو لتايلور سويفت تقول إنها تعاونت مع ماركة أدوات المطبخ Le Creuset لإجراء مسابقة. كل ما عليك فعله للدخول في المسابقة هو تقديم معلوماتك الشخصية ودفع عشرة دولارات.
كان الفيديو مزيفًا بتقنية التزييف العميق. لم تشارك تايلور سويفت مع Le Creuset، ولم تكن هناك مسابقة. أوه، ورسوم العشرة دولارات التي دفعتها؟ اتضح أنها رسوم شهرية متكررة وليست رسومًا لمرة واحدة، لكنك لست على علم بذلك. تمثل هذه الحادثة مثالًا صارخًا على تزايد استخدام تقنيات التزييف العميق في عمليات الاحتيال عبر الإنترنت، مما يستدعي ضرورة رفع مستوى الوعي لدى المستخدمين حول كيفية كشف هذه الأساليب الاحتيالية.
كيفية تحديد مقاطع الفيديو المزيفة (Deepfake)
على الرغم من أن تقنيات توليد الفيديو بالذكاء الاصطناعي متطورة للغاية (أكثر من كافية لتكون مقنعة)، إلا أنها لا تزال غير مثالية. هناك احتمال كبير لوجود عيوب وتحريفات في الفيديو يمكن أن تكون علامات على أنه فيديو مزيف (Deepfake).
- ابحث عن أي “غرابة” في جسم الشخص. يحدث هذا عادةً مع يدي الشخص في مقاطع الفيديو المزيفة. ابحث عن أصابع مفقودة أو غير واضحة في إطارات معينة. هذه الأنواع من التناقضات شائعة في مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي.
- راقب حركات الوجه غير الطبيعية. إذا تم إنتاج الفيديو المزيف عن طريق تعديل فيديو شرعي، فقد يجعل ذلك أشياء مثل حركات الوجه “غير طبيعية” إلى حد ما. انتبه بشكل خاص لحركة الشفاه ومزامنتها مع الصوت.
- تذكر أن مقاطع الفيديو المزيفة تميل إلى تصويرها من زاوية واحدة، وعادة ما يواجه الشخص اتجاهًا واحدًا دون أن يستدير أبدًا.
- انتبه جيدًا لحركة الشفاه والتزامن مع الصوت. إذا كان أي منهما غير متطابق، فيجب أن يثير ذلك شكوكك.
- تحقق من الإضاءة غير الطبيعية أو التحريفات الغريبة التي تظهر في الخلفية. قد تكون هذه علامات على التلاعب بالفيديو.
- بالطبع، حاول التحقق من مصدر الفيديو. تعامل معه على أنه مشبوه إذا لم تتمكن من العثور على مصدر موثوق.
عمليات الاحتيال باستنساخ الصوت
استنساخ الصوت هو نوع من التزييف العميق، ولكنه مُخصص للصوت. يُمكّن تدريب نموذج ذكاء اصطناعي على تسجيلات صوتية لشخص ما المحتالين من التحدث بصوت مُقنع يُحاكي صوت وشخصية وإيقاع صوت شخص آخر. إنه أمرٌ مُثيرٌ للريبة.
للوهلة الأولى، قد يبدو استنساخ الصوت أقل خطورة من التزييف العميق، نظرًا لافتقار استنساخ الصوت إلى الدعم البصري المُستخدم في التزييف العميق. ولكن العكس هو الصحيح. أنت أكثر عرضة للوقوع ضحية لعملية احتيال باستنساخ الصوت مقارنةً بعملية احتيال بالتزييف العميق لأنه يعتمد على الصوت فقط. آذاننا ليست جيدة في تحديد الصوت المزيف كما هو الحال مع أعيننا في اكتشاف الفيديو المزيف. علاوة على ذلك، فإن سهولة الوصول إلى تقنيات استنساخ الصوت، وحتى عبر تطبيقات الهواتف الذكية، تزيد من انتشار هذا النوع من الاحتيال.
دقة الذكاء الاصطناعي في نسخ صوت شخص ما مُرعبة. عادةً ما يُصرح ضحايا عمليات الاحتيال باستنساخ الصوت أنهم لم يشكوا ولو للحظة في أنهم كانوا يتحدثون إلى الشخص الحقيقي. هذه هي جودة التقنية المُستخدمة. يُنصح باتخاذ تدابير وقائية، مثل استخدام كلمات مرور قوية وتفعيل خاصية المصادقة الثنائية، للحد من مخاطر الوقوع ضحية لهذه الجرائم الإلكترونية المتطورة.
أمثلة على استنساخ الصوت
الهدف النهائي من عمليات الاحتيال باستنساخ الصوت هو الكسب المالي. تتمثل إحدى أساليب الاحتيال الشائعة في انتحال شخصية أحد أحباء الضحية الذي يمر بضائقة مالية ويحتاج إلى المال بسرعة. عادةً ما يذكرون أن هناك ضيقًا في الوقت وأنهم بحاجة إلى المال على وجه السرعة. هذه حيلة كلاسيكية لإثارة ذعرك ودفعك إلى رد فعل عاطفي، متجاوزًا عمليات تفكيرك العقلانية.
في حين أن هناك عمليات احتيال باستنساخ الصوت تستخدم أصوات المشاهير، إلا أن النسخة الأكثر شيوعًا هي تلك التي يتم فيها انتحال شخصية شخص تعرفه، وعادةً ما يكون أحد أفراد العائلة بحاجة إلى المساعدة. والسبب في ذلك بسيط جدًا: من المرجح أن تتفاعل عاطفيًا مع أحد أفراد أسرتك المحتاج، كما أنك أكثر عرضة للثقة بهم. أيضًا، لماذا يحتاج أحد المشاهير إلى أموالك؟ إن تدبير عملية الاحتيال بهذه الطريقة يجعلها أكثر عرضة للنجاح.
بالطبع، إذا أرسلت الأموال المطلوبة، فسترسلها مباشرة إلى المهاجم، الذي قد يكون لديه الآن معلوماتك المالية.
كيفية تحديد استنساخ الصوت
لا توجد قائمة محددة من العلامات الصوتية التي يمكن البحث عنها لتحديد الصوت المستنسخ، ولكن يمكنك اتخاذ بعض الاحتياطات لتقليل فرص الوقوع ضحية لعملية احتيال باستنساخ الصوت.
- إذا تلقيت مكالمة من أحد أحبائك يطلب منك المال، فأنهِ المكالمة واتصل به مرة أخرى. يمكنك التأكد من أنك تتحدث مع الشخص الحقيقي إذا كنت أنت من يجري المكالمة.
- إذا لم تتمكن من التواصل معهم، فاتصل بشخص مقرب منهم تثق به لمحاولة تقييم ما إذا كانت الحالة الطارئة حقيقية. لاحظ أيضًا أنه إذا ذكر الشخص شيئًا مثل “أحتاج إلى مساعدة، لكن لا تخبر فلانًا أو علانًا”، فيجب أن يثير ذلك بعض الشكوك.
- إذا طلب الشخص الذي يطلب المال على وجه التحديد إرسال الأموال باستخدام بطاقات الهدايا أو استخدام منصة دفع إلكترونية محددة مثل Zelle أو Apple Pay (وهي تحويلات فورية تقريبًا ولا رجعة فيها)، فيجب أن يثير ذلك بعض الشكوك.
- حدد “كلمة مرور سرية” تشاركها مع الأشخاص المقربين منك ويمكن استخدامها للتحقق من هوية بعضكم البعض في مثل هذه الحالة. تأكد من الحفاظ على سرية كلمة المرور. لا تكتبها حتى على قطعة من الورق.
الصور المزيفة / الأخبار الكاذبة
يتمتع الذكاء الاصطناعي التوليدي بقدرة خارقة على إنشاء صور مزيفة تبدو واقعية للغاية. لا بأس في استخدام هذه التقنية في الأغراض الفنية (باستثناء بعض المشكلات المحتملة المتعلقة بحقوق النشر). ومع ذلك، غالبًا ما تُستخدم هذه الصور لتصوير أحداث مزيفة والترويج لقصص إخبارية كاذبة، مما يُشكّل خطرًا حقيقيًا.
إن غرس معتقدات خاطئة في أذهان الناس أمر سيء بما فيه الكفاية. ولكن هذا التكتيك يُستخدم أيضًا للاحتيال على غير المدركين. ومن الطرق التي يحدث بها هذا الأمر هي إنشاء صور مفجعة للأطفال المحتاجين للترويج لمنظمات خيرية مزيفة تطلب منك أموالًا حقيقية. للأسف، يستغل البعض عواطف الناس بهذه الطريقة غير الأخلاقية.
أمثلة على الصور المزيفة / الأخبار الكاذبة
ظهر هذا السيناريو المذكور أعلاه في أعقاب زلزال تركيا وسوريا عام 2023. فمباشرة بعد الزلازل، ظهرت مجموعة من الجمعيات الخيرية التي ربما لم تسمع بها من قبل. حتى الجمعيات الخيرية الفردية بدأت بالظهور، حيث يدّعي فيها شخص ما أنه على اتصال بالضحايا، ويجمع الأموال للقضية. إن إغراق الشبكات الاجتماعية بهذه المنشورات يستغل إحساس الضحية بالانتماء للمجتمع (مجرد مستخدم حسن النية يحاول إحداث فرق)، وقد تُؤدي الصور المُفجعة المُرفقة بالمنشورات إلى إتمام الصفقة.
بغض النظر عن كيفية وصول الطلب إليك، فإن الهدف هو التأثير عليك عاطفياً وتجاوز عمليات تفكيرك العقلانية لزيادة فرص تبرعك ببعض المال دون إجراء عمليات التحقق اللازمة. فعليك توخي الحذر من عمليات الاحتيال المحتملة والتأكد من مصداقية الجهة التي تتبرع لها عبر البحث والتحقق من خلال المواقع الرسمية والجهات الموثوقة.
كيفية تحديد الصور المزيفة / الأخبار الكاذبة
- تحقق من مصدر المحتوى قبل التفاعل معه. هناك الكثير من الأشخاص الذين يحاولون التلاعب بك عبر الإنترنت. تأكد من موثوقية المصدر قبل تصديق أي معلومة.
- تحقق من صحة القصة من خلال جهة إخبارية موثوقة ومعروفة. إذا بدت القصة وكأنها خبر هام ولكنك لم تجد أي جهة إخبارية موثوقة تؤكدها، فهناك احتمال كبير أن تكون مزيفة. ابحث عن مصادر متعددة وتأكد من توافقها.
- عادةً ما يكون لدى المؤسسات الخيرية الرسمية أرقام تسجيل يمكن التحقق منها لإثبات شرعيتها قبل الوقوع ضحية لعملية احتيال خيرية. تحقق من هذه الأرقام قبل التبرع. وبينما من الممكن أن يرغب فرد ما بصدق في جمع الأموال لقضية معينة، فإن احتمالية قدرتك على التحقق من مكان ذهاب أموالك ضئيلة للغاية. كما أن التبرعات الخيرية الرسمية عادةً ما تكون قابلة للخصم من الضرائب، ولكن من المحتمل ألا تنطبق هذه القاعدة على التبرعات الخيرية العشوائية على Facebook. تجنب التبرع عبر وسائل التواصل الاجتماعي إلا من خلال الجهات الرسمية والمعروفة.
- ابحث عن موقع ويب جيد للتحقق من الحقائق واستخدمه. تحقق دائمًا من صحة الادعاءات أو القصص الإخبارية التي لست متأكدًا منها قبل تبني رأي أو تقديم مساهمة مالية. استخدم مصادر متعددة وتحقق من تاريخ الموقع وسمعته.
نصائح عامة لتجنب عمليات الاحتيال بالذكاء الاصطناعي
فيما يلي بعض النصائح لتجنب عمليات الاحتيال بالذكاء الاصطناعي:
- إنه لأمر مؤسف، ولكن لم يعد بإمكاننا الوثوق بالصور أو مقاطع الفيديو أو الصوت في عصرنا الرقمي الحالي. بالطبع، ليست كل صورة مزيفة، ولكن بالنظر إلى واقعنا الحالي، ليس لدينا خيار آخر سوى أن نشكك في ما نراه ونسمعه عبر الإنترنت. قد تساوي الصورة ألف كلمة، ولكن اليوم، قد تكون كل تلك الكلمات أكاذيب …
- قلل من كمية المعلومات الشخصية الظاهرة للعامة على حساباتك على وسائل التواصل الاجتماعي – فأنت بذلك تسهل الأمر على المحتالين. راجع أيضًا إعدادات الخصوصية على حساباتك على وسائل التواصل الاجتماعي وقم بتشديدها. وإذا كنت تعتقد أن مشاركة المعلومات الشخصية على الإنترنت أمر تافه، فغيّر طريقة تفكيرك. إنها ليست كذلك.
- استخدم كلمات مرور قوية وفريدة لجميع حساباتك على الإنترنت. لا تعيد استخدام كلمة المرور نفسها على حسابات متعددة. إذا قمت بذلك، فعندما يتم اختراق حساب واحد، فسيتم اختراق جميع الحسابات الأخرى التي تستخدم كلمة المرور نفسها أيضًا.
- كن حذرًا عند مشاركة بياناتك مع تطبيقات الطرف الثالث. شارك بياناتك فقط مع الأشخاص والتطبيقات والخدمات التي تثق بها.
نصائح عامة لحماية حساباتك على الإنترنت
تنطبق النصائح التالية دائمًا، ويجب عليك اتباعها بغض النظر عما إذا كنت تريد تجنب تهديد معين أو جميعها.
- توخَّ الحذر عند مشاركة معلوماتك الشخصية على الإنترنت. لا تُسجِّل في كل موقع. لا تُقدِّم بياناتك لكل موقع تصادفه. شارك معلوماتك فقط مع المواقع والخدمات التي تثق بها.
- استخدم بريدًا إلكترونيًا مؤقتًا للخدمات غير المهمة. يمكنك بسهولة العثور على خدمات البريد الإلكتروني المؤقت التي تسمح لك باستخدام عناوين مؤقتة للتسجيل في الخدمات عبر الإنترنت. وهذا يجعل احتمال اختراق بريدك الإلكتروني أقل بكثير (كما سيحد من الرسائل غير المرغوب فيها).
- لا تفتح المرفقات في رسائل البريد الإلكتروني إلا إذا كنت تعرف مرسلها وتأكدت من هذا الشخص أنه أرسل إليك هذا البريد الإلكتروني بالفعل. يجب عليك أيضًا التأكد من أنهم يعرفون أن البريد الإلكتروني يحتوي على مرفق ويفهمون ماهية المرفق.
- لا تنقر على الروابط (عناوين URL) في رسائل البريد الإلكتروني إلا إذا تمكنت من تأكيد من أرسل إليك الرابط ووجهته. قد يكون من الجيد أيضًا الاتصال بالمرسل من خلال قناة أخرى (ليست البريد الإلكتروني) للتأكد من عدم انتحال شخصية المرسل. تحقق أيضًا من الرابط بحثًا عن أخطاء إملائية (faceboook بدلاً من facebook أو goggle بدلاً من google)؟ إذا كان بإمكانك الوصول إلى الوجهة دون استخدام الرابط، فافعل ذلك بدلاً من ذلك.
- استخدم جدار حماية. تحتوي جميع أنظمة التشغيل الرئيسية على جدران حماية داخلية مُدمجة، وتوفر جميع أجهزة التوجيه التجارية في السوق جدار حماية NAT مُدمجًا. قم بتمكين كليهما. ستشكرني إذا نقرت على رابط ضار.
- استخدم برنامجًا لمكافحة الفيروسات – اشترِ فقط برامج مكافحة فيروسات أصلية وذات تقييمات جيدة من بائعين شرعيين. حافظ على تحديث برنامج مكافحة الفيروسات وقم بإعداده لتشغيل عمليات فحص متكررة ومراقبة في الوقت الفعلي.
- حافظ على تحديث نظام التشغيل الخاص بك – أنت تريد أحدث تحديثات نظام التشغيل. فهي تحتوي على أحدث تصحيحات الأمان التي ستُصلِح أي ثغرات أمنية معروفة. تأكد من تثبيتها بمجرد توفرها.
- لا تنقر أبدًا على النوافذ المنبثقة. أبدًا. النوافذ المنبثقة هي مجرد أخبار سيئة – فأنت لا تعرف أبدًا إلى أين ستقودك.
- لا تستسلم “لإرهاق التحذيرات” إذا عرض متصفحك تحذيرًا آخر حول موقع ويب. أصبحت متصفحات الويب أكثر أمانًا يوميًا، مما يميل إلى زيادة عدد مطالبات الأمان التي تعرضها. ومع ذلك، يجب أن تأخذ هذه التحذيرات على محمل الجد. لذلك، إذا عرض متصفحك مطالبة أمان حول عنوان URL الذي تحاول زيارته، فانتبه لتحذير متصفحك واحصل على معلوماتك من مكان آخر. وينطبق هذا بشكل خاص إذا نقرت على رابط تلقَّيته عبر البريد الإلكتروني أو الرسائل القصيرة – فقد يرسلك إلى موقع ضار. لا تتجاهل مطالبات التحذير من جهاز الكمبيوتر الخاص بك.
عمليات الاحتيال بالذكاء الاصطناعي – الخلاصة
كانت هذه نظرة على عمليات الاحتيال الأكثر شيوعًا التي تستخدم الذكاء الاصطناعي. فبينما سمح ظهور الذكاء الاصطناعي بتطوير بعض عمليات الاحتيال الجديدة، إلا أن مساهمته الأكبر تمثلت في تقليل حاجز الدخول للمحتالين – على الرغم من أن بعض وسائل التلاعب بالناس جديدة.
يجعل الذكاء الاصطناعي ارتكاب عمليات الاحتيال عبر الإنترنت أسهل بكثير وأكثر إقناعًا. ولأن الذكاء الاصطناعي التوليدي قد تم تدريبه في العديد من المجالات (بما في ذلك البرمجة وتطوير البرمجيات)، فإنه يقلل من مقدار المهارة التقنية المطلوبة لتنفيذ عملية الاحتيال.
نأمل أن تساعدك الأمثلة والنصائح الواردة في هذه المقالة على تجنبها.
كما هو الحال دائمًا، ابقَ آمنًا.