مظاهرات في تل أبيب للمطالبة بإتمام صفقة التبادل
ستتلقى المواقع الإخبارية الرقمية التي تعتمد على حركة المرور (الترافيك) ضربة كبيرة من محركات البحث التي تعمل بـ"الذكاء الاصطناعي" من OpenAI و Perplexity و Google؛ لأنها ستقوم بتغيير كيفية العثور على المعلومات عبر الإنترنت بشكل أساسي.
فالذكاء الاصطناعي لا يقرأ المواقع مثل البشر الذين سينقرون على رابط واحد، ثم ينقرون على الرابط الثاني ثم ينتقلون إلى رابط آخر، بل يقوم بتحليل من 10 إلى 20 رابطًا في الوقت نفسه للحصول على إجابات.
كشفت دراسة جديدة أن مواقع الويب ستفقد نسبة 25% من حركة المرور في المستقبل القريب؛ بسبب تطور محركات البحث بالذكاء الاصطناعي التي تقوم بشكل متزايد بسحب البيانات من المواقع وتقديمها للمستخدمين، ما يلغي الحاجة لزيارة المواقع الإلكترونية التي تقدم هذه المعلومات.
وتشير نتائج الدراسة أيضًا إلى أن شركات التكنولوجيا كثفت من عمليات سحب المعلومات من المواقع الإلكترونية لتدريب نماذج الذكاء الاصطناعي الخاصة بها.
ومع ذلك، لا يدرك مالكو مواقع الويب والناشرون عمومًا أن شركات الذكاء الاصطناعي تصل إلى محتواهم؛ لأن الروبوتات لا يتم تحديدها أو الكشف عنها بشكل صحيح.
ادعت شركات مثل OpenAI وPerplexity أن محركات البحث التي تعمل بالذكاء الاصطناعي الخاصة بها ستوجه المزيد من القراء إلى مواقع الويب، وتخلق تدفقات دخل جديدة للناشرين.
ومع ذلك، توقع تقرير آخر صادر عن شركة الأبحاث العالمية جارتنر أن يؤدي ظهور روبوتات الدردشة والذكاء الاصطناعي والوكلاء الافتراضيين إلى انخفاض بنسبة 25 في المائة في حركة البحث على مواقع الويب بحلول عام 2026.
مع العلم أنه في الآونة الأخيرة، رفعت العديد من شركات التكنولوجيا التعليمية دعاوى قضائية زعمت فيها أن ملخصات نتائج البحث التي تم إنشاؤها بواسطة الذكاء الاصطناعي من غوغل قد أدت إلى تآكل حركة المرور لديها وأضرت بإيراداتها.
وفي الوقت نفسه، رفع ناشرو الأخبار في العديد من البلدان دعاوى قضائية ضد OpenAI وPerplexity لانتهاك حقوق الطبع والنشر.