منذ انتشار نماذج اللغة الكبيرة (LLMs) مثل Gemini وGPT، لاحظت تحولاً جذرياً في طريقة تعاملنا مع المشكلات التقنية والدراسية. في السابق، كان "البحث" يعني الغوص في المصادر، مقارنة الإجابات، وفهم "لماذا" يعمل هذا الكود أو تلك المعادلة. اليوم، أصبحنا نكتفي بـ "ماذا" تعطينا الشاشة من نتائج فورية.
بصفتي مهتماً بالأتمتة والذكاء الاصطناعي، أرى 3 مخاطر بدأت تتسلل إلينا:
1. متلازمة النسخ واللصق: نصل للحل سريعاً، لكننا نفقد القدرة على بناء المنطق من الصفر في عقولنا.
2. الثقة العمياء (الهلوسة المقنعة): الذكاء الاصطناعي يهلوس أحياناً ببراعة، والخطير ليس في الخطأ نفسه، بل في قدرته على إقناعك بأن الخطأ هو "الحقيقة العلمية".
3. ضعف عضلة حل المشكلات: حل المعضلات هو "تمرين" للعقل؛ عندما نعطي المهمة للبوت، نحن نحرم عقولنا من هذا التدريب الضروري.
كيف توازنون بين "سرعة الإنجاز" التي يوفرها الذكاء الاصطناعي وبين "عمق الفهم"؟ هل تضعون قوانين لأنفسكم قبل سؤال البوت؟