דמיינו לכם שקניתם ספר מודפס (יש כאלה עדיין?) – העלילה סוחפת, הדיאלוג כתוב לעילא ועילא, אתם מתחברים לדמויות, נשאבים פנימה ואז, דפים ריקים. פה ושם אתם מוצאים דף שכתוב בו משהו, אבל בלי קונטקסט זה אבוד לכם.
הייתם ממליצים על ספר כזה?
זה בדיוק מה שקורה כשמעבירים אתר לפריימוורק מבוסס JS במכה אחת, מבלי לוודא שישנם מספיק משאבי סריקה ושלבוטים של גוגל לא יהיה קשה מדי לקרוא את דפי האתר. גם אם הבוט של גוגל יצליח לרנדר את הדפים, הסריקה והרנדור יקרו בקצב צב.
פדרו דיאז, עובד לשעבר בצוות הוובספאם והאיכות של גוגל, שיתף בטוויטר מקרה מעניין של אתר שעבר לעבודה על Angular וצנח במיקומים לאחר המעשה.
This is not a penalty.
— Pedro Dias: ~/pedro$ (@pedrodias) August 31, 2019
This is a website that migrated to a client-side rendered JS framework. Even with JS rendering on, most tools fail to crawl past 100 URLs.
Plan and test your migrations, folks! pic.twitter.com/VNkplZDCpJ
לפי הדיון המתפתח בטוויטר, נראה כי הצניחה במיקומים בגוגל נבעה ממספר סיבות:
עיקרי הדברים
- האתר עבר לעבוד עם אנגולר, אבל לא בוצע שימוש ברנדור צד שרת (Server Side Rendering) המנגיש את ה-HTML הסופי לבוטים של גוגל.
- המעבר לאנגולר מחייב רנדור של כל עמוד ועמוד באתר החדש, דבר שכנראה "שתה" להם את תקציב הסריקה. פדרו ציין שמרבית כלי הסריקה לא הצליחו לעבור יותר מ-100 דפים בסריקה.
- הם לא יישמו אסטרטגיית קישורים פנימיים טובה – כזו שגם תעזור לגוגל לגלות דפים, גם תחזק דפים חשובים וגם תיצור היררכיה נושאית טובה באתר
אין לי ספק שגוגל יודעים לסרוק אתרים הבנויים על אנגולר, במיוחד עכשיו שהבוט שלהם ירוק עד ומדביק פערים עם גרסת הכרומיום העדכנית ביותר די מהר. אין לי ספק גם שגוגל עדיין צריכים עזרה עם הנגשת הקוד כי אתרי JS דורשים לא מעט משאבים לסריקה וכשמדובר באתר גדול, זו יכולה להוות בעיית תקציב סריקה לא קטנה.
מנסיוני, בכל אתר שכן עבד עם פריימווק JS כלשהו, הפעלת רנדור צד שרת מאוד זירז עניינים והוביל לגילוי טוב יותר של התכנים באתר על ידי גוגל. אני פשוט לא מכיר מצב בו אתר הבנוי על JS ובונה על קידום אורגני כחלק מהאסטרטגיה שלו לא יכול להרוויח מלעשות את זה.
אז מה עושים?
- אם חייבים לעבור לפרייווק JS כמו אנגולר או ריאקט, דאגו ליישום רינדור צד שרת
- בצעו מעבר מדורג באתרים גדולים עם מאות אלפי עמודים – לפי אזורים או סוגי דפים
- סרקו את האתר החדש עם כלים מתאימים (כמו Screaming Frog) לפני העלייה על מנת לוודא שאין תקלות סריקה ורנדור
- ניטור ניטור ניטור – במהלך מעבר מדורג, בחנו את הממצאים, סרקו שוב את האתר ווודאו שגוגל הצליח לסרוק ולרנדר את כל הדפים החדשים שנוצרו
2 Responses
תודה על הסקירה. מקווה שניישם בהקדם (-:
בהצלחה!