الذكاء الاصطناعي التوليدي مفيد جدًا في تلخيص النصوص، وشرح الأفكار المعقّدة، واقتراح اتجاهات للبحث. لكنه ليس معصومًا. قد ينتج معلومات غير دقيقة أو خاطئة ثم يعرضها بثقة وكأنها حقائق؛ وتُسمّى هذه الظاهرة في كثير من أدبيات الأمن المعلوماتي والتعليم «هلوسة الذكاء الاصطناعي» أو AI hallucination[4][
5]. كما تناقش دورية Misinformation Review التابعة لكلية كينيدي في جامعة هارفارد هذه الهلوسات بوصفها أحد مصادر عدم الدقة الجديدة المرتبطة بالذكاء الاصطناعي التوليدي[
3].
لذلك، السؤال الأهم ليس: «هل تبدو الإجابة مقنعة؟» بل: «هل يمكن ردّ هذا الكلام إلى مصدر يمكن فحصه؟»
القاعدة الذهبية: الذكاء الاصطناعي خيط بحث، لا دليل نهائي
يمكنك استخدام أدوات الذكاء الاصطناعي لتجميع خلفية سريعة، أو ترجمة نص صعب، أو تحويل سؤال كبير إلى قائمة نقاط تحتاج إلى تدقيق. لكن عندما تتعلق الإجابة باسم شخص، أو تاريخ، أو رقم، أو قانون، أو دراسة علمية، أو خبر عاجل، أو نصيحة طبية، أو قرار مالي، فلا ينبغي أن تتوقف عند إجابة النموذج.
يشير إطار إدارة مخاطر الذكاء الاصطناعي التوليدي الصادر عن NIST — وهو المعهد الوطني الأمريكي للمعايير والتقنية — إلى ممارسات مثل تتبّع مصدر البيانات، والتدقيق والتقييم، والمراقبة، والضوابط المبنية على مستوى الخطر ضمن خطط وإجراءات الحوكمة ذات الصلة[1][
2]. وبصياغة أبسط للاستخدام اليومي: لا تنخدع بالصياغة المرتبة؛ اسأل عن المصدر، واقرأ الأصل، وتأكد من سلسلة الدليل.
5 خطوات للتحقق من إجابات الذكاء الاصطناعي
1. اطلب مصادر قابلة للفحص منذ البداية
لا تكتفِ بسؤال: «ما الإجابة؟». اطلب من الأداة أن تربط كل ادعاء مهم بمصدر واضح، مثل:
اذكر المصادر التي تدعم هذه الإجابة، وفضّل الوثائق الرسمية، أو الدراسات الأصلية، أو المواقع الحكومية، أو إعلانات الشركات، أو قواعد البيانات. وضّح أي ادعاء يدعمه كل مصدر.
إذا كانت الإجابة تقول فقط: «تشير دراسات» أو «يرى خبراء» أو «ذكرت تقارير عديدة» من دون اسم وثيقة، أو جهة ناشرة، أو رابط، أو معلومة يمكن البحث عنها، فتعامل معها ككلام غير موثّق. قابلية تتبّع المصدر أهم من جمال الصياغة؛ فـ NIST يدرج تتبّع مصدر البيانات والتدقيق والتقييم ضمن ممارسات إدارة مخاطر الذكاء الاصطناعي التوليدي[1][
2].
2. افتح المصدر وتأكد أن النص الأصلي يدعم الإجابة
وجود رابط في الإجابة لا يعني أن الإجابة صحيحة. عند التحقق، راجع ثلاث نقاط على الأقل:
- هل الرابط موجود فعلًا ويمكن فتحه؟
- هل يحتوي النص الأصلي على المعلومة التي ذكرها الذكاء الاصطناعي؟
- هل لخّص النموذج النص بدقة، أم بالغ في الاستنتاج، أو حذف قيدًا مهمًا، أو حوّل الكلام إلى نتيجة مختلفة؟
من أكثر الأخطاء شيوعًا أن تبدو الإجابة «مدعومة بمراجع»، بينما لا تؤيد المراجع النتيجة المطروحة. وظيفة التحقق هي أن تنقل العبارة من «النموذج يقول إن لديه مصدرًا» إلى «أنا رأيت المصدر وقرأت ما يدعم الادعاء».
3. ابدأ بالتفاصيل التي تكشف الخطأ سريعًا
لا تحتاج دائمًا إلى قراءة وثيقة طويلة من أولها إلى آخرها. ابدأ بما يسهل فحصه ويكشف الهلوسة بسرعة:
- أسماء الأشخاص والمؤسسات.
- التواريخ والسنوات وأرقام الإصدارات.
- الإحصاءات والنسب المئوية والترتيبات.
- أسماء القوانين والسياسات واللوائح.
- عناوين الدراسات، وأسماء المؤلفين، واسم المجلة العلمية.
- الاقتباسات الحرفية.
إذا قال النموذج إن «دراسة وجدت» أو «شركة أعلنت» أو «قانونًا ينص»، فابحث مباشرة عن الدراسة أو الإعلان أو النص القانوني. إذا لم تجد المصدر الأصلي، فلا تتعامل مع المعلومة كحقيقة مؤكدة.
4. قارن مع مصدر مستقل، خصوصًا في الموضوعات الحساسة
قد يكون المصدر الواحد ناقصًا، وقد يحذف تلخيص الذكاء الاصطناعي شروطًا أو استثناءات مهمة. لذلك، ابحث عن مصدر مستقل آخر على الأقل عند التعامل مع موضوعات مثل:
- المعلومات الطبية والصحية.
- المسائل القانونية والضريبية والعقود.
- قرارات الاستثمار والتمويل والتأمين.
- الأخبار العاجلة والأحداث العامة.
- المواصفات التقنية، ومخاطر الأمن السيبراني، ومتطلبات السياسات.
إذا وجدت اختلافًا بين المصادر، لا تختَر النسخة التي تريحك فقط. ارجع إلى الجهة الناشرة، أو الوثيقة الأصلية، أو قاعدة بيانات موثوقة، أو استشر شخصًا مختصًا تكون له مسؤولية مهنية في المجال.
5. في القرارات عالية المخاطر، لا تجعل الذكاء الاصطناعي الحكم الأخير
تعتمد مقاربة NIST لإدارة مخاطر الذكاء الاصطناعي التوليدي على فكرة أن مستوى التحقق والرقابة يجب أن يتناسب مع مستوى الخطر، لا أن تُعامل كل المخرجات بدرجة الثقة نفسها[1][
2]. ويمكن تطبيق الفكرة نفسها في الاستخدام الشخصي: كلما زادت العواقب، قلّ ما ينبغي أن تعتمد فيه على إجابة مولّدة وحدها.
إذا كانت النتيجة قد تؤثر في صحتك، أو حقوقك القانونية، أو أمانك المالي، أو قرار مهني مهم، أو السلامة العامة، فاجعل الذكاء الاصطناعي أداة لترتيب الأسئلة والخلفية، ثم ارجع إلى الوثائق الأصلية أو إلى طبيب، أو محامٍ، أو محاسب، أو مستشار مؤهل بحسب المجال.
علامات تقول لك: توقّف وراجع
خطورة «هلوسة» الذكاء الاصطناعي أنها لا تبدو دائمًا كخطأ واضح؛ فقد تكون الإجابة سلسة ومنظمة ومكتوبة بثقة، لكنها غير دقيقة[3][
4][
5]. ارفع درجة الحذر إذا رأيت أحد هذه المؤشرات:
- نبرة حاسمة جدًا بلا مصادر.
- مراجع تبدو مكتملة لكن لا يمكن العثور عليها عند البحث.
- مصدر موجود فعلًا، لكنه لا يدعم النتيجة التي ذكرها النموذج.
- أرقام أو تواريخ أو أرقام إصدارات بلا إسناد واضح.
- تناقض داخل الإجابة نفسها.
- خلط بين الرأي أو التخمين أو «المعروف عمومًا» وبين الحقائق المثبتة.
عبارات جاهزة يمكنك نسخها عند استخدام AI
استخدم هذه التعليمات لتجعل الإجابة أسهل في الفحص:
قسّم إجابتك إلى جدول من أربع خانات: الادعاء الواقعي، المصدر، النص الأصلي الذي يدعمه، وما يزال غير مؤكد.
ميّز بين الكلام المدعوم بمصدر، والكلام الذي هو استنتاج أو يحتاج إلى تحقق بشري.
أجب فقط بناءً على الوثائق التي أقدّمها لك. إذا لم تذكر الوثائق المعلومة، قل بوضوح إن البيانات غير كافية.
اذكر أكثر 5 تفاصيل في هذه الإجابة تحتاج إلى تدقيق، مثل التاريخ أو الرقم أو الاقتباس أو اسم السياسة أو اسم الشخص.
أسئلة شائعة
هل وجود مصادر في إجابة الذكاء الاصطناعي يعني أنها موثوقة؟
ليس بالضرورة. قد يكون المصدر غير موجود، أو الرابط لا يعمل، أو النص الأصلي لا يقول ما يدّعيه النموذج. التحقق الحقيقي لا يعني رؤية رابط فقط، بل فتح الرابط وقراءة النص ومطابقة الدليل مع الادعاء.
هل يجب أن أتحقق من كل إجابة بالتفصيل؟
لا. الأسئلة منخفضة المخاطر قد تكفيها مراجعة سريعة. أما الصحة، والقانون، والمال، والسلامة العامة، والقرارات المهنية الكبيرة فتحتاج إلى تدقيق أقوى. وهذا ينسجم مع نهج إدارة المخاطر الذي يربط الضوابط والمراقبة بدرجة الخطر[1][
2].
ماذا أفعل إذا لم أجد مصدرًا؟
اعتبر المعلومة غير مؤكدة. لا تنقلها كحقيقة ولا تستخدمها في قرار مهم. يمكنك أن تطلب من الذكاء الاصطناعي إعادة الإجابة بالاعتماد على مصادر قابلة للفحص، أو تبحث بنفسك في الوثائق الرسمية والدراسات الأصلية وإعلانات الشركات وقواعد البيانات الموثوقة.
الخلاصة: لا تثق بالنبرة، ثق بالدليل القابل للفحص
نعم، قد «يختلق» الذكاء الاصطناعي معلومات أو يخطئ بثقة. الحل ليس تركه تمامًا، بل استخدامه بوعي: اطلب المصدر، اقرأ الأصل، دقق التفاصيل، قارن مع مصادر مستقلة، واستشر مختصًا عندما تكون المخاطر عالية. بهذه الطريقة يصبح الذكاء الاصطناعي مساعد بحث سريعًا، لا آلة إجابات غير مفحوصة.




