ارائه صفحه وب Googlebot
رندر صفحه وب، فرآیند ساختاردهی یک صفحه وب در مرورگر با دریافت و دانلود مجموعهای از فایلها از جمله HTML، تصاویر، CSS و جاوا اسکریپت است و سپس قرار دادن این فایلها در یک ترکیب منسجم تا صفحه وب نمایش داده شود.
خزنده گوگل یا Googlebot نیز به عنوان یک نمونه از خزندههای وب عمل میکند. این نرمافزار وظیفه دارد تا فایلهای HTML، تصاویر، CSS و جاوا اسکریپت مرتبط با یک صفحه وب را دانلود کرده و اطلاعات مورد نیاز برای نمایش صفحه را جمعآوری کند. سپس محتوا و اجزای مختلف صفحه توسط مرورگر نمایش داده میشوند.
چگونه گوگل با محتوای تولید شده توسط هوش مصنوعی برخورد می کند
مارتین اسپلیت از گوگل در یک وبینار با عنوان “کاوش در هنر رندر با مارتین اسپلیت” که توسط دودا تهیه شده بود، به مباحثی پیرامون زمینههای مختلف رندر پاسخ داد.
یکی از شرکتکنندگان در این وبینار سوالی مطرح کرد که آیا حجم بزرگ محتوای تولید شده توسط هوش مصنوعی تاثیری بر توانایی گوگل در رندر کردن صفحات در مرحله خزیدن دارد یا خیر؟
مارتین به این پرسش توضیحی ارائه داد؛ همچنین اطلاعاتی را نیز ارائه داد که گوگل چگونه در زمان خزیدن تصمیم میگیرد که آیا یک صفحه وب کیفیت پایین دارد یا نه و پس از تشخیص این موضوع، چه اقداماتی انجام میدهد.
آمون جانز نیز سوالی ارائه کرد که توسط اولریکا وایبرگ به آن پاسخ داده شد.
سوال اینجاست:
بنابراین، ما یکی از آمون نیز داریم و این چیزی است که در مورد آن زیاد صحبت میشود.
من زیاد میبینمش
آنها گفتند، تولید محتوا به دلیل هوش مصنوعی افزایش مییابد و بارهای فزاینده ای را روی خزیدن و رندر قرار میدهد.
آیا این احتمال وجود دارد که فرآیندهای رندر باید ساده شوند؟
آنچه آمون ظاهراً میخواهد بداند این است که آیا فرآیندهای خاصی در پاسخ به محتوای هوش مصنوعی برای مقابله با افزایش بار خزیدن و رندر رخ میدهد یا خیر.
مارتین اسپلیت پاسخ داد:
«نه، فکر نمیکنم، زیرا بهترین حدس من این است…»
مارتین در ادامه به مشکل آشکار محتوای هوش مصنوعی که سئوکاران در مورد آن تعجب میکنند، یعنی شناسایی آن میپردازد.
مارتین ادامه داد:
بنابراین، ما در مراحل مختلف تشخیص کیفیت یا کنترل کیفیت را انجام میدهیم، و اکثر محتوای s****y (همون داغون خودمون در ورژن فحش😅) لزوماً به جاوا اسکریپت نیاز ندارند تا به ما نشان دهند چقدر خوب هستند.
بنابراین، اگر متوجه شویم که قبلاً محتوای s****y 😅 است، از رندر صرف نظر میکنیم، چه فایدهای دارد؟
اگر ببینیم، بسیار خوب، به نظر میرسد مطلق به سایت است. میتوانیم مطمئن باشیم که این یک مزخرف است و جاوا اسکریپت ممکن است فقط مزخرفات بیشتری اضافه کند، پس خداحافظ.
اگر یک صفحه خالی است، پس ممکن است مانند، ما نمی دانیم.
مردم معمولاً صفحات خالی را در اینجا قرار نمیدهند، پس بیایید حداقل سعی کنیم رندر کنیم.
و پس از آن، وقتی رندر با مزخرفات برمیگردد، میگوییم، بله، خوب، به اندازه کافی منصفانه، این تلخ بوده است.
بنابراین، این در حال حاضر اتفاق میافتد. این چیز جدیدی نیست.
هوش مصنوعی ممکن است مقیاس را افزایش دهد، اما آنقدر تغییر نمی کند. رندر در اینجا مقصر نیست.»
(بچهها اگر نفهمیدید که چی میگه ویدئو یوتیوب رو من پایین گذاشتم میتونید ببینید دقیقا همینطوری حرف میزنه ولی ماهیت حرفش مشخصه 🧐)
تشخیص کیفیت برای هوش مصنوعی اعمال می شود
مارتین اسپلیت بیان کرد که گوگل از تشخیص هوش مصنوعی بر روی محتوا استفاده نمیکند. او اشاره کرد که گوگل در مراحل مختلفی از تشخیص کیفیت، رویکردهای خاص خود را دارد.
این موضوع بسیار جالب است، زیرا ژورنال “Search Engine” مقالهای در خصوص یک الگوریتم تشخیص کیفیت منتشر کرده بود که قادر به تشخیص محتوای با کیفیت پایین تولید شده توسط هوش مصنوعی بود.
به عبارت دیگر، این الگوریتم به طور اتوماتیک قادر به تشخیص محتوای با کیفیت پایین ایجاد شده توسط ماشین است، اگرچه آن از پیش برای این موضوع طراحی نشده بود. این الگوریتم به طور خودکار توانسته است این نوع محتوا را شناسایی کند.
بیشتر در مورد این الگوریتم، گوگل اصولی را که برای سیستم خود برای تشخیص محتوای مفید تعیین کرده، رعایت میکند. این سیستم اصلاً برای شناسایی محتوایی که توسط انسانها نوشته شده، طراحی شده است.
دنی سالیوان در مورد الگوریتم محتوای مفید نوشت :
«…ما در حال ارائه یک سری پیشرفتها در «جستجو» هستیم تا افراد بتوانند محتوای مفیدی را که توسط و برای افراد ساخته شده است، آسانتر پیدا کنند.»
(اینجا میشه گفت گوگل از قبل آماده هوش مصنوعی و محتواهاش بوده برای همین این حرف رو زدن 🔍)
او تنها یک بار به محتوای نوشتهشده توسط افراد اشاره نکرد. مقالهای که او منتشر کرده، سیستم محتوای مفید را تشریح کرده و سه بار به این موضوع اشاره دارد.
این الگوریتم برای تشخیص محتوای تولیدشده توسط ماشین طراحی شده است و به طور کلی میتواند محتوای با کیفیت پایین را نیز تشخیص دهد.
عنوان مقاله پژوهشی، مدلهای مولد پیشبینیکنندههای بدون نظارت کیفیت صفحه هستند: یک مطالعه در مقیاس عظیم .
در آن محققان مشاهده می کنند:
این مقاله نشان میدهد که آشکارسازهایی که برای تمایز دادن متنهای نوشتهشده توسط انسان و ماشینآمیز آموزش دیدهاند، پیشبینیکنندههای مؤثری برای کیفیت زبان صفحات وب هستند و از طبقهبندیکننده هرزنامههای نظارتشده پایه عملکرد بهتری دارند.»
برگردیم به آنچه مارتین اسپلیت گفت:
ما در حال انجام تشخیص کیفیت یا کنترل کیفیت در مراحل مختلف هستیم…
بنابراین، این در حال حاضر اتفاق می افتد. این چیز جدیدی نیست.
هوش مصنوعی ممکن است مقیاس را افزایش دهد، اما آنقدر تغییر نمیکند.
به نظر می رسد آنچه مارتین می گوید این است که:
- هیچ چیز جدیدی برای محتوای هوش مصنوعی اعمال نشده است
- گوگل از تشخیص کیفیت برای محتوای انسانی و هوش مصنوعی استفاده میکند
وبینار Duda با حضور مارتین اسپلیت را در دقیقه 35:50 تماشا کنید:
نظر من در رابطه با این وبینار
دوستان نباید دروغ گفت، گوگل برای هوش مصنوعی آماده شده بود، اما به هیچوجه برای این حجم پیشرفت آماده نبود.
کسی حتی فکرش را نمیکرد که شرکت OpenAI به صورت ناگهانی این حجم بودجههای زیادی به آن وارد شود و اینقدر شناخته شود. 💸💸💸
لطفاً اگر شما در زمینه هوش مصنوعی فعالیت دارید، حتماً اطلاعات محتوا را بخوانید تا بتوانید تشخیص دهید آیا واقعاً محتوا خوب است یا نه؟ اغلب هوش مصنوعی تمایل دارد به طور کلی صحبت کند و اطلاعات جامعی ارائه دهد که ممکن است کمی سردرگمی ایجاد کند و فرد به سوال برود که خب، واقعاً چه چیزی رخ داده است؟✍🏻
اکنون سوال این است که چه باید کرد؟ و این دقیقاً آنچه که من همیشه تاکید میکردهام: هوش مصنوعی خوب است، اما نمیتواند جایگزین خلاقیت را بگیرد. ✍🏻
پس خلاقیت را در اولویت قرار دهید
منبع: searchenginejournal