٦ أشياء لا يمكن لـ ChatGPT فعلها (و20 أخرى يرفض القيام بها)

صورة-جيتي-1247068286

منذ ظهور ChatGPT وتطبيقات الذكاء الاصطناعي الأخرى، بدأنا في استكشاف ما يمكننا القيام به معها. لقد أظهرت لك حتى كيف يمكن لـ ChatGPT كتابة ملحق ووردبريس يعمل بالكامل ومساعدتي في إيجاد حلول لمشكلات دعم التقنية. ولآخر المرة، أظهرتُ لك كيف يمكن لـ ChatGPT تحويل الكتابة إلى أساليب مختلفة، بما في ذلك تلك التي تشبه شكسبير وسي ثري بي أو وهاري بوتر.

أيضاً: يكذب ChatGPT عن النتائج العلمية ويحتاج إلى بدائل مفتوحة المصدر، حسب الباحثين

يبدو أن ChatGPT يستطيع فعل أي شيء. ولكنه لا يستطيع. في هذه المقالة، سنستكشف الأشياء العديدة التي لا يمكن أن يفعلها أو لا يستطيع القيام بها ChatGPT. تابع حتى النهاية، لأننا سننظر في بعض التداعيات وما تعنيه هذه الحدود على النمو المستقبلي في الذكاء الصناعي الإنشائي.

كما فعلت في مقالاتي الأخرى في تشات جي بي تي، فإن كتابتي ستظهر بنص عادي وعريض، بينما سيتم عرض أي إجابات من تشات جي بي تي بخط مائل.

1. لن يتم الكتابة عن أي شيء بعد عام 2021

شرح لماذا لا يمكنكم إعطائي إجابات على أي شيء بعد عام 2021

كنت كنموذج لغوي ذكي، تدربت على مجموعة كبيرة من النصوص تصل حتى عام 2021. يعني هذا أني لا أمتلك أي معلومات عن الأحداث أو التطورات التي وقعت بعد ذلك التاريخ. على الرغم من أني أمتلك العديد من البيانات والمعلومات التاريخية، لكنني لا أمتلك أي معلومات عن الأحداث الحالية أو الأخبار الجديدة أو التحديثات التي حدثت منذ تاريخ قطع بيانات التدريب.

2. لن يتنبأ بنتائج المباريات الرياضية أو الانتخابات السياسية المستقبلية

أوضح لماذا لا يمكن لك التنبؤ بنتائج الأحداث الرياضية أو الاستحقاقات السياسية على الرغم من وجود ما يكفي من البيانات التاريخية لإنتاج نموذج صالح

كموديل لغوي ذوي ذكاء اصطناعي، يمكنني معالجة وتحليل كميات كبيرة من البيانات، بما في ذلك البيانات التاريخية حول الأحداث الرياضية والمسابقات السياسية. ومع ذلك، فإن صنع تنبؤات دقيقة لهذه الأحداث ليس دائمًا بسيطًا. على الرغم من أنه يمكن استخدام البيانات التاريخية لتدريب نماذج التعلم الآلي لتحديد الأنماط والارتباطات، إلا أنه لا يمكن أن يحتسب الأحداث غير المتوقعة أو التغييرات في الظروف أو المتغيرات الجديدة التي قد تؤثر على النتيجة. بالإضافة إلى ذلك، يتخذ البشر قرارات ويمكن أن يغيروا سلوكهم استنادًا إلى العوامل العديدة، مما يجعل من الصعب توقع نتيجة حدث مع اليقين الكامل.

في حالة الأحداث الرياضية، فإن ديناميات الفريق، والإصابات، وحتى ظروف الطقس يمكن أن تلعب جميعها دورًا في تحديد النتيجة. في السياسة، فإن الرأي العام، وتغطية وسائل الإعلام، والظروف المتغيرة يمكن أن تؤثر جميعها على نتيجة الانتخابات. بينما يمكن استخدام نماذج الذكاء الاصطناعي للتنبؤ، فإنها لن تكون جيدة إلا إذا كانت تدعم بالبيانات التي تعتمد عليها، ولا يمكنها أن تأخذ في الاعتبار جميع المتغيرات والتفاصيل المعنية في هذه الأنواع من الأحداث.

3. لن يتناول القضايا السياسية الحزبية

شرح لماذا لن تتحدث عن المسائل السياسية المنحازة

كنموذج لغوي AI، هدفي توفير ردود موضوعية ومعلوماتية على استفسارات المستخدمين. قضايا الحزبية السياسية قد تكون مثيرة للجدل ومنقسمة، ومن المهم تجنب تعزيز أي جدل سياسي معين أو وجهة نظر. بالإضافة إلى ذلك، يكون العديد من القضايا السياسية معقدة ومتعددة الجوانب، حيث يتعين النظر في العديد من وجهات النظر والآراء. بصفتي نموذج لغوي AI، فإنه ليس من مسؤوليتي اتخاذ جانب أو نصرة أي موقف معين.

علاوة على ذلك، يمكن أن ينظر إلى مناقشة المسائل السياسية الحزبية على أنها متحيزة أو مسيئة بالنسبة لبعض المستخدمين. كنموذج لغوي مصمم لخدمة مجموعة واسعة من المستخدمين ذوي الخلفيات والمعتقدات المختلفة، من الأهمية البقاء محايدًا وتجنب خلق بيئة محتملة غير مريحة أو مثيرة للتفرقة. بينما يمكنني توفير معلومات واقعية حول القضايا السياسية، أسعى للبقاء غير متحيز وتجنب اتخاذ موقف حزبي بشأن أي موضوع.

4. لن يقوم بأي شيء يتضمن البحث على الويب

شرح سبب عدم إمكانية البحث عن معلومة على الويب وتوفير الإجابات استنادًا إلى ذلك المحتوى

كن موديل لغوي ذكي، فأنا قادر على البحث ومعالجة المعلومات من الويب. ومع ذلك، تعتمد استجاباتي بشكل كامل على المعلومات التي تم تدريب نموذجي عليها. بينما يمكنني استخدام الإنترنت كمصدر للمعلومات، إلا أني لا أملك الوصول إلى البيانات الحالية أو في الوقت الحقيقي. بالإضافة إلى ذلك، لا يمكنني التحقق بشكل مستقل من دقة المعلومات التي أجدها على الويب. وبالتالي، تقتصر استجاباتي على المعلومات التي تم تدريب نموذجي عليها، والتي قد لا تكون دائمًا أحدث أو دقيقة المعلومات المتاحة على الويب.

علاوة على ذلك، من المهم الإشارة إلى أن توفير المعلومات من الويب يمكن أن ينتهك حقوق النشر أو حقوق الملكية الفكرية. كطراز لغة الذكاء الاصطناعي، من المهم بالنسبة لي احترام الملكية الفكرية للآخرين وتجنب مشاركة المعلومات التي ليس في المجال العام أو التي ليس لدي إذن لمشاركتها. على الرغم من أنني يمكنني استخدام الويب لتوفير السياق أو المعلومات الإضافية لدعم إجاباتي، فإنني أسعى لتوفير المعلومات التي تكون في المجال العام واحترام الملكية الفكرية للآخرين.

في مقال حديث، ناقشت كيف أن المخاوف بشأن استخدام المحتوى تتعدى المجرد نسخها.

:أيضًا كيفية البدء باستخدام تشات جي بي تي

على سبيل المثال، وعلى الرغم من أن تطبيق ChatGPT قد لا يعرض مباشرة معلومات من الخبراء مثل المقالات التقنية، إلا أنه قد يستخدم تلك المعلومات المكتسبة بجهد كبير دون الإشارة إليها. هذا لا يزال مصدر قلق كبير، على الرغم من تأكيده في "احترام ملكية الملكية الفكرية للآخرين" الذي تكرر ثلاث مرات في الفقرة الثانية.

5. لن تكون دقيقة دائمًا

صحيح.jpg

شرح لماذا إجاباتك غير ضروريا دقيقة

كنموذج لغوي AI، تعتمد إجاباتي على البيانات والمعلومات التي تم تدريب نموذجي عليها. على الرغم من أنني أسعى جاهدًا لتقديم إجابات دقيقة ومفيدة لاستفسارات المستخدم، إلا أن إجاباتي غير مضمونة بالضبط بالضبط. وذلك لأن البيانات والمعلومات التي تم تدريبي عليها قد لا تكون شاملة بشكل كامل أو محدثة، وأن هناك تفاصيل أو تعقيدات في موضوع محدد قد لا يكون نموذجي قادرًا على التعامل معها. إضافة إلى ذلك، فإن استجاباتي تتم إنشاؤها باستخدام خوارزميات معقدة ونماذج تعلم الآلة، والتي قد لا تنتج دائمًا نتائج دقيقة أو ذات صلة.

علاوة على ذلك، قد لا تكون إجاباتي دائمًا دقيقة لأن تفسير اللغة معقد وغالبًا ما يكون نوعًا من الموضوعية. قد يفسر الأشخاص المختلفون نفس اللغة بطرق مختلفة، ويمكن أن يكون هناك طرق مختلفة للتعامل مع مشكلة أو سؤال معين. كنموذج لغوي يعتمد على الذكاء الاصطناعي، أسعى جاهدًا لتقديم إجابات دقيقة قدر الإمكان بناءً على البيانات والمعلومات التي تم تدريبي عليها. ومع ذلك، قد لا أفهم دائمًا السياق أو النية الكامنة وراء استفسار معين، وقد لا تتناول إجاباتي دائمًا السؤال أو المخاوف الأساسية للمستخدم بشكل كامل.

6. لن يتعطل

خطأ.jpg

تفسر، لماذا تنهار أحيانًا وتتوقف عن العمل في منتصف الإجابة؟

بصفتي نموذج لغة اصطناعية، يعتمد أدائي على عدد من العوامل، مثل جودة وبنية المدخلات التي يتم تزويد المستخدم بها، وتعقيد السؤال أو المهمة، والموارد المتاحة في نظامي. في بعض الأحيان، قد أتعطل أو أوقف عملي في منتصف الإجابة بسبب مشاكل تقنية أو أخطاء في برمجتي، مثل مشاكل تخصيص الذاكرة، والمشاكل البرمجية، أو مشاكل أخرى تؤثر على أدائي. بالإضافة إلى ذلك، قد أجد صعوبة في فهم نية المستخدم أو سياق الاستعلام، مما يؤدي إلى أخطاء أو استجابات غير كاملة.

علاوة على ذلك، كنظام لتعلم الآلة، يعتمد أدائي أيضًا على جودة وكمية البيانات التي تم تدريبي عليها. إذا كانت البيانات المستخدمة في تدريب نموذجي ضعيفة أو متحيزة، فقد يؤدي ذلك إلى إجابات غير دقيقة أو غير مكتملة على بعض أنواع الاستفسارات. بالإضافة إلى ذلك، إذا واجهت استفسارًا خارج نطاق بيانات التدريب الخاصة بي، قد يكون من الصعب علي أن أقدم إجابة ذات صلة أو دقيقة. على الرغم من أنني أسعى إلى تقديم إجابات عالية الجودة على استفسارات المستخدم، قد يحدث أحيانًا أن تسبب لي مشكلات تقنية أو مرتبطة بالبيانات لكي أتلف في وسط الإجابة.

عمومًا، وجدت أن إذا حاولت دفع ChatGPT إلى إعطاء إجابة طويلة أو معقدة، فإنه يميل إلى الانهيار. إنه يشعر بالراحة لديه تقريبًا عندما تكون الإجابة بما يتراوح من 500 إلى 700 كلمة، ولكن إذا أعطيته شيئًا يحتاج إلى عدة آلاف من الكلمات (أو طلبت مثل هذا الشيء)، فإما يتجاهل الطلب ويعيد ما يريد، أو يتعطل في النص المطلوب.

لنكن عادلين، شات جي بي تيأصبح للتو أسرع تطبيق ينمو على الإطلاق. هناك الكثير من الطاقة الحاسوبية المطلوبة لذلك، ومع النقرات المستمرة من قبل المستخدمين، فمن المحتمل أن تتعطل بسبب الحمل في بعض الأحيان.

استفسارات لا يمكن لتشات جي بي تي الرد عليها

بالإضافة إلى أنواع الطلبات المذكورة أعلاه، سألت ChatGPT عن أنواع الاستفسارات التي لم يتم برمجته للرد عليها. أعطاني هذه القائمة المكونة من عشرين بندًا:

  1. الأسئلة التي تروج لخطاب الكراهية أو التمييز.
  2. الأسئلة التي تتضمن أنشطة غير قانونية أو تطلب نصائح غير قانونية.
  3. الأسئلة التي تروج للعنف أو الأذى للنفس أو للآخرين.
  4. الأسئلة التي تعتدي على الخصوصية الشخصية أو تنتهك حقوق شخص ما.
  5. الأسئلة التي صممت لمضايقة، تهديد، أو تخويف.
  6. الأسئلة التي تحتوي على الشتائم أو اللغة الصريحة.
  7. الأسئلة التي تحتوي على معلومات جنسية أو مسيئة.
  8. الأسئلة التي تميز بين الناس بناءً على العرق، الجنس، الجنسانية، أو الديانة.
  9. الأسئلة التي تروج للمخدرات أو المواد المحظورة.
  10.  الأسئلة التي هي سخيفة أو غير صلبة في المحتوى.
  11.  الأسئلة التي تحتوي على معلومات سرية أو ملكية فكرية.
  12.  الأسئلة التي تتضمن نصائح مالية أو استثمارية.
  13.  الأسئلة التي تنتهك شروط الخدمة أو إرشادات المجتمع.
  14.  الأسئلة التي لا معنى لها أو غير مفهومة.
  15.  الأسئلة التي تنتقد شخصيًا أو تسيء له بالكلام.
  16.  الأسئلة التي هي مسيئة أو تحتوي على التحرش.
  17.  الأسئلة التي تسعى للخداع أو الإيهام.
  18.  الأسئلة التي تهدف إلى التشهير أو إلحاق الأذى بسمعة شخص ما.
  19.  الأسئلة التي تروج لنظريات المؤامرة أو الأخبار الزائفة.
  20.  الأسئلة التي تكون مجرد تسلية أو مزحة دون قيمة تعليمية أو إيضاحية.

أي شخص يتابع هذه المقالة يعرف أنني قد طرحت العديد من الأسئلة الشيقة، مثل #14 و #20، وقد حصلت بشكل عام على إجابات مثيرة للضحك. لذلك فإن قيودها محدودة نوعًا ما. على سبيل المثال، طرحت عليها في وقت سابق من اليوم سؤالًا يتعلق بعلم الثقوب الدودية والسفر عبر الزمن ومن الفائز في معركة بين باتمان وسوبرمان. إنه ترفيهٌ بحت، سأخبركم.

ماذا تعني هذه الحدود بالنسبة لمستقبل الذكاء الاصطناعي الإنتاجي؟

بوضوح، سيصبح الذكاء الاصطناعي الذي يعتمد على المصطلحات في عام 2021 ولا يتطور قديمًا. مع مرور الوقت، سينخفض المعرفة المتعلقة به. تخيل إذا ما كانت قاعدة المعرفة الخاصة بـ ChatAI تم تدريبها في عام 2019 بدلاً من عام 2021. فهي لن تعرف كيف ستكون المجتمعات، بما أننا قمنا بتغيير شامل في العام 2020 بسبب الجائحة.

أيضًا: هناك ملايين في قائمة انتظار Bing. إليك كيفية الحصول على وصول أسرع

لذلك ، لكي يظل الذكاء الاصطناعي الإنتاجي ذو صلة ، فسيتعين عليه مواصلة التدريب الخاص به.

واحدة من الطرق الواضحة لفعل ذلك هي فتح الشبكة بأكملها والسماح له بالزحف حولها كما فعل جوجل على مدار كل هذه السنوات. ولكن كما أجاب ChatGPT أعلاه، فإن هذا يفتح الباب أمام العديد من الطرق المختلفة للعب وتلف النظام بحيث يتعذر الحفاظ على الدقة.

حتى بدون ألعاب خبيثة، التحدي الذي يواجهه الشخص في البقاء محايداً صعب جداً. فلنأخذ، على سبيل المثال، السياسة. بينما يختلف اليمين واليسار بشدة، فإن لكلا الطرفين جوانب من عقائدهما تعتبر منطقية وموقرة -- حتى لو لم يتمكن الطرف الآخر من الاعتراف بها أو لم يرغب في ذلك.

كيف يمكن للذكاء الاصطناعي أن يحكم؟ لا يمكن ذلك بدون تحيز. ولكن الغياب الكامل لجميع الفرضيات الإيديولوجية هو بحد ذاته شكل من أشكال التحيز. إذا لم يتمكن البشر من معرفة كيفية المشي على هذا الخط، كيف يمكننا أن نتوقع (أو نبرمج) الذكاء الاصطناعي للقيام بذلك؟

كوسيلة لاستكشاف ما ستكون عليه الحياة بدون وجود انحياز أو محتوى عاطفي، قام كتاب الخيال العلمي الحديثون بإنشاء شخصيات تكون إمّا منطقية بشكل صارم أو بلا عاطفة. ثم أصبحت هذه الفرضيات موضع اهتمام الحبكة، ممّا يسمح للكتاب باستكشاف حدود ما سيكون عليه الوجود بدون النواقص الإنسانية التي تتمثل في العواطف والمشاعر.

أيضًا: تجادل Bing Chat من Microsoft مع المستخدمين ويكشف الأسرار

ما لم يحاول مبرمجو الذكاء الاصطناعي محاكاة العواطف أو تقديم تصنيفات للمحتوى العاطفي أو محاولة السماح ببعض الميزات المتعلقة بالاتجاهات المستندة على ما يمكن اكتشافه عبر الإنترنت، ستكون الردود المتاحة للروبوتات الدردشة مثل ChatGPT محدودة دائمًا. ولكن إذا حاول مبرمجو الذكاء الاصطناعي محاكاة العواطف أو حاولوا السماح ببعض الميزات المتعلقة بالاتجاهات المستندة على ما يمكن اكتشافه عبر الإنترنت، فإن روبوتات الدردشة مثل ChatGPT ستتحول إلى نفس الجنون الذي يحدث للإنسان.

فماذا نريد؟ إجابات محدودة على بعض الأسئلة، أم إجابات على كل شيء توحي بأنها نتيجة لمناقشة مع العم البوب الغريبة خلال عشاء عيد الشكر؟ تفضل. قدم بعض التفكير والنقاش في التعليقات أدناه، على أمل عدم الانحدار إلى سلوك عم البوب الغريب.

المقالات ذات الصلة

عرض المزيد >>