تسعى شركة غوغل الأمريكية حالياً لتطوير نظام ذكاء اصطناعي يمتلك قدرات تفكير تحاكي العقل البشري، وفقاً لتقارير إعلامية عالمية، ويأتي هذا التطور في ظل تصاعد المنافسة بين غوغل وشركة “أوبن أيه آي“، المطورة لتطبيق “شات جي بي تي”، إذ يتنافس الطرفان على السيطرة على سوق الذكاء الاصطناعي التوليدي.
وذكرت صحيفة صينية أن شركة غوغل حققت تقدماً ملحوظاً في الأشهر الأخيرة في تطوير برنامج يتمتع بقدرات تفكير مشابهة للتفكير البشري، ويهدف هذا النظام الجديد إلى معالجة المشكلات متعددة الخطوات بكفاءة، بما في ذلك المسائل الرياضية المعقدة وبرمجة الكمبيوتر.
ويعمل فريق التطوير في غوغل على تطوير مفهوم رئيسي يعتمد على تقنية تُعرف باسم “مطالبة سلسلة الأفكار”، تستند هذه التقنية إلى منح النظام بضع ثوانٍ قبل تقديم الردود على الطلبات، إذ يقوم النظام خلال هذه الفترة بتنظيم البيانات ذات الصلة وتلخيص أفضل استجابة ممكنة بشكل غير مرئي للمستخدم.
اقرأ أيضاً: السعودية تطبق تقنيات الذكاء الاصطناعي في القطاع السياحي
في خضم هذه التطورات، امتنعت غوغل عن التعليق على التقارير الأخيرة، وقد لفتت مصادر إلى أن المسؤولين في وحدة “ديب مايند” التابعة لغوغل، التي تعمل على تطوير نظام الذكاء الاصطناعي الجديد، أبدوا قلقهم بعد إطلاق “أوبن أيه آي” لنموذجها الجديد للذكاء الاصطناعي التوليدي المعروف باسم “أو 1″، بسبب التشابه في النهج وطريقة العمل بين النموذج الجديد وبرنامج غوغل المرتقب.
وحسب تقرير من صحيفة عالمية، يقود السير ديميس هاسابيس، رئيس قسم الذكاء الاصطناعي في غوغل، جهود الشركة لتطوير نموذج ذكاء متخصص ليكون بمثابة مساعد بحثي، وأفاد هاسابيس قائلاً: “نحن نعمل على نموذج لغوي علمي كبير يمكن أن يلعب دور المساعد البحثي، وربما يسهم أيضاً في التنبؤ بنتيجة التجارب”.
يشار إلى أن تطوير هذه النماذج من الذكاء الاصطناعي يمثل خطوة بارزة في مسيرة تطوره، ومع استمرار تقدم هذه التقنية، من المتوقع أن تزداد جهود الصناعة نحو تطوير نماذج قادرة على معالجة مشكلات أكثر تعقيداً، مع الالتزام بالمعايير الأخلاقية والحفاظ على الثقة العامة.
اقرأ أيضاً: سدايا تطلق المركز الدولي لأبحاث وأخلاقيات الذكاء الاصطناعي
جدير بالذكر أن الذكاء الاصطناعي من التحديات الكبرى في عصرنا، إذ يثير مخاوف تتعلق باستبدال الوظائف وأبعاد الأمن والخصوصية، ويعد عدم الشفافية من أكبر مخاطره، حيث يمثل غياب الوضوح في أنظمة الذكاء الاصطناعي، وخاصة في نماذج التعلم العميق المعقدة، قضية ملحة.
إن التعقيد والغموض الذي يكتنف هذه الأنظمة يحجب عمليات اتخاذ القرار والمنطق الذي يعتمد عليه، وعندما يجد الناس أنفسهم غير قادرين على فهم كيفية وصول نظام الذكاء إلى استنتاجاته، تنشأ حالة من عدم الثقة التي قد تؤدي إلى مقاومة استخدام هذه التقنيات.
كذلك، تبرز المعضلات الأخلاقية كإحدى التحديات الكبرى، وذلك لأن تضمين القيم الأخلاقية في أنظمة الذكاء الصنعي، خاصة في قرارات تتعلق بعواقب كبيرة، يتطلب جهداً كبيراً من الباحثين والمطورين.
اقرأ أيضاً: لمياء عبد الله.. أول عارضة أزياء سعودية بالذكاء الاصطناعي
إلى جانب ذلك، تتزايد المخاطر الأمنية مع تزايد تعقيد هذه الأنظمة، ما يفتح المجال لإساءة استخدامها، إذ يمكن للمتسللين والجهات الخبيثة استغلال قوة الذكاء الاصطناعي لتطوير هجمات إلكترونية متقدمة، تتجاوز تدابير الأمن وتستغل نقاط الضعف في الأنظمة.
ومن جهة أخرى، يثير ظهور الأسلحة المستقلة التي تعتمد على الذكاء الاصطناعي مخاوف كبيرة، خاصة فيما يتعلق بإمكانية استخدامها من قبل جهات فاعلة غير حكومية، وتزداد هذه المخاوف حدة عندما نفكر في فقدان السيطرة البشرية خلال عمليات صنع القرار الحاسمة، ولمواجهة هذه التحديات الأمنية، من الضروري أن تعمل الحكومات والمنظمات على تطوير أفضل الممارسات لتصميم ونشر الذكاء الاصطناعي بشكل آمن، فضلاً عن تعزيز التعاون الدولي لوضع معايير ولوائح عالمية، تهدف إلى حماية المجتمع من التهديدات الأمنية المرتبطة بهذه التكنولوجيا.
كما أن الاعتماد المفرط على أنظمة الذكاء الاصطناعي يمكن أن يؤدي إلى تراجع الإبداع ومهارات التفكير النقدي والحدس البشري، وهذا أمر يتخوف منه كثيرون، إذ من الضروري إيجاد توازن بين استخدام الذكاء الاصطناعي في اتخاذ القرارات والمدخلات البشرية للحفاظ على قدراتنا المعرفية.
في النهاية، يثير تطوير ذكاء اصطناعي يحاكي التفكير البشري أو يتجاوزه، مخاوف بشأن مستقبل البشرية، فقد تؤدي هذه الأنظمة المتقدمة إلى عواقب غير متوقعة، قد تكون مدمرة، إذا لم تتماشى مع القيم الإنسانية، لذا، من الضروري أن يشارك مجتمع أبحاث الذكاء الاصطناعي في أبحاث السلامة، ويعمل على وضع مبادئ توجيهية أخلاقية، ويعزز الشفافية في تطوير هذه الأنظمة، لضمان أن تكون في خدمة الإنسانية ولا تشكل تهديداً لوجودنا.
اقرأ أيضاً: ثورة صناعية ذكية في قلب الرياض: المعرض السعودي للتصنيع الذكي 2024 يفتح أبوابه!