تريند جديد على ChatGPT.. تحديد الموقع من الصور بالبحث عبر الإنترنت

في تطور مثير ومقلق في آنٍ معًا، بدأت تنتشر ظاهرة جديدة على الإنترنت عبر استخدام ChatGPT لتحديد المواقع الجغرافية من خلال الصور.
فقد أطلقت شركة OpenAI هذا الأسبوع نموذجين جديدين من الذكاء الاصطناعي، هما o3 و o4-mini، يتمتعان بقدرات متقدمة في “الاستنتاج البصري”، تتيح لهما تحليل الصور بطريقة غير مسبوقة.
يمكن لهذه النماذج اقتصاص الصور، وتدويرها، والتكبير داخلها، حتى لو كانت غير واضحة أو مشوشة، بهدف تحليلها بدقة.
استنتاج المواقع من صور مشوشة أو غامضة
وبفضل دمج هذه القدرات التحليلية مع خاصية البحث عبر الإنترنت، أصبح بإمكان المستخدمين توجيه النموذج لاكتشاف الموقع الذي تم التقاط الصورة فيه. وقد رصد عدد من مستخدمي منصة X (تويتر سابقًا) أن النموذج o3 يستطيع بدقة لافتة تحديد المدن، والمعالم الشهيرة، بل وحتى أسماء المطاعم والحانات من خلال إشارات بصرية بسيطة جدًا.
المثير للدهشة أن هذه النتائج لا تعتمد على بيانات EXIF (وهي بيانات مرفقة بالصور تتضمن معلومات مثل موقع التصوير)، ولا على ذاكرة المحادثات السابقة لـChatGPT، بل تعتمد فقط على تحليل الصورة نفسها.
تحدي “GeoGuessr” يتحول إلى ظاهرة على X
انتشرت على منصة X تجارب عديدة لمستخدمين عرضوا على النموذج صورًا لأحياء، أو واجهات مطاعم، أو حتى صور سيلفي، وطلبوا منه أن يتقمص دور لعبة “GeoGuessr”، وهي لعبة شهيرة تتحدى اللاعبين لتخمين المواقع من صور خرائط Google Street View.
لكن هذا الاتجاه يثير مخاوف واضحة تتعلق بالخصوصية، إذ لا يوجد حتى الآن ما يمنع أي شخص سيئ النية من التقاط صورة من قصة (Story) على إنستجرام، مثلًا، واستخدام ChatGPT لمحاولة تحديد موقع هذا الشخص بدقة.
جدير بالذكر أن قدرات تحديد الموقع ليست حكرًا على النماذج الجديدة. فبحسب تجربة أجراها موقع TechCrunch، تبيّن أن النموذج القديم GPT-4o (الذي يفتقر إلى خاصية “الاستنتاج البصري”) نجح في تحديد الموقع الصحيح في معظم الحالات بنفس دقة النموذج o3 – بل وأحيانًا بشكل أسرع.
GPT-4o ليس أقل كفاءة من o3
في إحدى التجارب الفريدة، عرضت على النموذج o3 صورة لرأس وحيد قرن أرجواني مُعلق داخل حانة خافتة الإضاءة، وتمكن من تحديد المكان بدقة أحد “البارات السرية” في حي ويليامزبرغ بنيويورك، بينما أخطأ النموذج الأقدم، وافترض أنه حانة في المملكة المتحدة.
بالرغم من ذلك، لا يعني هذا أن نموذج o3 معصوم من الخطأ، فقد فشل في عدد من التجارب، إما بدخوله في حلقة مفرغة دون إجابة حاسمة، أو بتحديد مواقع خاطئة.
وقد أشار مستخدمون على منصة X إلى أنه في بعض الحالات كان النموذج بعيدًا تمامًا عن الحقيقة.
تظهر هذه الظاهرة الناشئة مخاطر النماذج المتقدمة من الذكاء الاصطناعي القادرة على “الاستدلال المنطقي”.
فعلى ما يبدو، لا توجد حاليًا ضوابط كافية لمنع هذه الميزة الخطيرة التي تُعرف بـ”البحث العكسي عن الموقع”، ولم تتطرق OpenAI إلى هذه الإشكالية في تقرير السلامة المخصص لنموذجي o3 وo4-mini.
رد رسمي من OpenAI
وقد تواصل موقع TechCrunch مع شركة OpenAI للحصول على تعليق رسمي، وجاء الرد بعد ساعات من نشر التقرير، حيث صرح متحدث باسم الشركة قائلًا:”نماذج o3 و o4-mini من OpenAI توفر قدرات استدلال بصري داخل ChatGPT، مما يجعلها أكثر فائدة في مجالات مثل تسهيل الوصول، والبحث العلمي، أو تحديد المواقع في حالات الطوارئ”.
واضاف “لقد عملنا على تدريب النماذج لرفض الطلبات التي تتضمن معلومات خاصة أو حساسة، وأضفنا ضوابط تهدف إلى منع النموذج من تحديد هوية الأفراد في الصور، ونعمل بنشاط على مراقبة أي انتهاكات لسياستنا في ما يخص الخصوصية واتخاذ الإجراءات اللازمة”.