تحذير من فهم نوايا الذكاء الاصطناعى

  • في تحرك نادر يوحّد أبرز عقول الذكاء الاصطناعي حول العالم، دعا باحثون من "OpenAI" و" غوغل ديب مايند" و"أنثروبيك"، إلى جانب مؤسسات تقنية وأكاديمية مرموقة، إلى مراقبة ما يُعرف بـ "سلاسل أفكار" الذكاء الاصطناعي.

    جاء ذلك في ورقة موقف نُشرت هذا الأسبوع، محذرين من فقدان السيطرة على هذه التقنية المتقدمة إذا لم يتم التحرك الآن.

     

    ما هي سلاسل الأفكار ولماذا تُثير القلق؟

    "سلاسل الأفكار" أو CoT (Chain of Thought)، هي طريقة تفكير يستخدمها الذكاء الاصطناعي لحل المشكلات خطوة بخطوة، على غرار كتابة الإنسان لملاحظات لحل مسألة معقدة، بحسب تقرير نشره موقع "تك كرانش" واطلعت عليه "العربية Business".

     

     الذكاء الاصطناعيذكاء اصطناعي"أنثروبيك" تستقطب القطاع المالي بأدوات ذكاء اصطناعي جديدة

    تعتبر هذه السلاسل حاسمة لفهم كيفية وصول الذكاء الاصطناعي إلى قراراته، خاصةً في نماذج الاستدلال الحديثة مثل o3 من "OpenAI" وR1 من "ديب سيك".

    ويحذر الباحثون من أن هذه السلاسل، رغم وضوحها حاليًا، قد تصبح أقل شفافية مع تطور النماذج، ما يجعل من الصعب تتبع منطق الآلة وفهم نواياها.

     

    تدعو الورقة المطورين إلى دراسة كيفية جعل هذه السلاسل أكثر قابلية للمراقبة، وتحذّر من أي تقنيات قد تقلل من وضوحها أو تُعرّض موثوقيتها للخطر.

    ويقول الباحثون إن مراقبة CoT قد تصبح في المستقبل وسيلة رئيسية لضمان سلامة وموثوقية نماذج الذكاء الاصطناعي.

     

     

     

     

     

    حمّل تطبيق Alamrakamy| عالم رقمي الآن