3 דרכים לדירוג גבוה יותר בגוגל – הכל מתחיל בסריקה
גוגל משתפת שלוש דרכים להגדלת תדירות הסריקה של Googlebot באתר אינטרנט. גארי איליאס וליזי סאסמן מגוגל דנו בשלושה גורמים המעוררים עלייה בתדירות הסריקה. למרות שהם הפחיתו בערך הצורך בסריקה מתמדת, הם הכירו בכך שיש דרכים לעודד את Googlebot לבקר באתר מחדש.
נתחיל בשלושה גורמים שיכולים להגדיל את תדירות הסריקה של ״גוגלבוט״:
1. השפעת תוכן איכותי על תדירות הסריקה
אחד הדברים שהם דיברו עליו היה איכות האתר. רבים סובלים מהבעיה שבה דפים מתגלים אך אינם נכנסים לאינדקס, ולעיתים זה נגרם על ידי פרקטיקות SEO מסוימות שאנשים למדו ומאמינים שהן שיטות טובות, אחד מהגורמים לרמת סריקה גבוהה הוא איתותים של איכות גבוהה שהאלגוריתמים של גוגל מזהים.
באופן כללי, אם התוכן של אתר הוא באיכות גבוהה, הוא מועיל ואנשים אוהבים אותו באופן כללי, אז Googlebot – נוטה לסרוק יותר מהאתר הזה.
אתם בטח שואלים מה הם האיתותים של איכות ועזרתם שיגרמו לגוגל להחליט לסרוק לעיתים תכופות יותר? האמת, גוגל לעולם לא חושף את זה. אבל אני יכול לשער, והנה כמה מניחושי המושכלים.
אנחנו יודעים שיש פטנטים על חיפוש ממותג שמתייחסים לחיפושים ממותגים שנעשו על ידי משתמשים כקישורים משתמעים. יש אנשים שחושבים ש"קישורים משתמעים" הם אזכורי מותגים, אבל "אזכורי מותגים" אינם מה שהפטנט מתייחס אליו כלל.
יש גם את פטנט ה-Navboost שקיים מאז 2004. יש אנשים שמקשרים את הפטנט הזה ללחיצות, אך אם תקראו את הפטנט בפועל משנת 2004, תראו שהוא כלל לא מזכיר שיעורי לחיצה (CTR). הוא מדבר על איתותי אינטראקציה של משתמשים.
באופן כללי, אני חושב שאיתותים שמראים שאנשים תופסים אתר כיעיל, יכולים לעזור לאתר לדרג טוב יותר. ולפעמים זה פשוט לתת לאנשים את מה שהם מצפים לראות, לתת להם את מה שהם מצפים לראות.
בעלי אתרים יגידו לי שגוגל מדרג אתרים באיכות נמוכה, וכשאני בודק אני רואה למה הם מתכוונים – האתרים הם סוג של "זבל". אבל מצד שני, התוכן מספק לאנשים את מה שהם רוצים כי הם לא באמת יודעים להבחין בין מה שהם מצפים לראות לבין תוכן איכותי באמת.
2. הגברת תדירות הפרסומים
דבר נוסף שיכול לגרום ל-Googlebot לסרוק יותר הוא עלייה בתדירות הפרסומים, כמו אם אתר פתאום מגדיל את כמות הדפים שהוא מפרסם. אתר שמתחיל לפרסם הרבה דפים חדשים יגרום ל-Googlebot לסרוק יותר.
אם נבחן זאת באתרים שאנחנו מכירים, ניתן לראות אתרי מתכונים שמתעדכנים על בסיס יומי ומקבלים דירוגים גבוהים, אתרי בלוג, אתרי ידע , עלייה בפעילות הפרסומים עשויה לגרום לעלייה בתדירות הסריקה.
פרסום של הרבה דפים חדשים גורם ל-Googlebot להתרגש ולסרוק את האתר "בטירוף" הוא התובנה העיקרית כאן. אין צורך בהסבר נוסף, נמשיך הלאה.
3. עקביות באיכות התוכן
שגוגל עשויה לשקול מחדש את איכות האתר הכוללת, וזה עשוי להוביל לירידה בתדירות הסריקה.
מה אומרים בגוגל? "…אם אנחנו לא סורקים הרבה או אם אנחנו בהדרגה מאטים את קצב הסריקה, זה יכול להיות סימן לתוכן באיכות נמוכה או שחשבנו מחדש על איכות האתר."
בעצם מה גוגל אומר – לעיתים האיכות הכוללת של האתר יכולה לרדת אם יש חלקים באתר שאינם עומדים באותה רמת איכות כמו התוכן המקורי.
לדעתי, על סמך דברים שראיתי לאורך השנים, בשלב מסוים התוכן באיכות נמוכה עלול לגבור על התוכן הטוב ולגרום ליתר האתר להיפגע. נקודה חושבה לציון איכות נמוכה של תוכן היא לאו-דווקא מאמרים לא טובים, אלה עמודים שמציגים מעט תוכן, עמודים ראשיים אפילו שהתוכן בהם דומה לתכנים נוספים בדף, שאין בהם קישורים וכנראה עמודים שגוגל מייחס להם איכות נמוכה. כלומר – שאתם עובדים על הנושא הזה, חשוב שהתוכן שאתם משקיעים בו לא יהיה רק תוכן בבלוג, גם העמודים הראשיים של האתר חייבים להיות איכותיים בעיניי גוגל. ותכנים ישנים תשדרגו, תשפרו, תעדכנו, וגוגל יעריך אתכם מאוד.
כאשר אנשים באים אליי ואומרים שיש להם בעיית "קניבליזם של תוכן", כשאני בודק את זה, מה שהם באמת סובלים ממנו הוא בעיית תוכן באיכות נמוכה בחלק אחר של האתר.
שאלה מעניינית היא האם יש השפעה אם תוכן האתר נשאר סטטי, לא משתפר ולא מחמיר, אלא פשוט לא משתנה. אין לזה תשובה מוחלטת וברורה אך נראה ש- Googlebot עשוי להאט את קצב הסריקה אם אין שינויים- מה שאפשר להסיק מזה שגוגל מבין שהתוכן באתר בשלב כלשהו לא יהיה מספיק רלוונטי לגולשים, בטווך הארוך תחוו ירידות במיקומים שלכם.
אני מסכם את שני הפסקאות הקודמות בכך – אם התוכן נשאר סטטי, הוא עלול לאבד רלוונטיות ולהתחיל לאבד דירוגים. לכן, כדאי לבצע ביקורת תוכן באופן קבוע כדי לראות אם הנושא השתנה, ואם כן, לעדכן את התוכן כך שימשיך להיות רלוונטי למשתמשים, לקוראים ולצרכנים כאשר הם משוחחים על הנושא.
אני יכול להמליץ לכם על שלוש דרכים לשיפור היחסים עם הבוט של גוגל. – ניסיתי את זה בעצמי וזה עובד.
תחשבו על זה – המטרה היא לא "לדחוף" את Googlebot לבקר באתר רק לשם הסריקה. הנקודה היא לחשוב על התוכן שלכם ועל הקשר שלו עם המשתמשים.
האם התוכן איכותי?
האם התוכן עוסק בנושא או שהוא ממוקד במילת מפתח? אתרים שמשתמשים באסטרטגיה מבוססת מילות מפתח הם אלה שאני רואה שנפגעים בעדכוני הליבה של 2024. אסטרטגיות שמבוססות על נושאים נוטות להפיק תוכן טוב יותר ועברו את עדכוני האלגוריתם בצורה חלקה.
הגברת תדירות הפרסומים
עלייה בתדירות הפרסומים יכולה לגרום ל-Googlebot לבקר באתר בתדירות גבוהה יותר. האתר או חברת הקידום צריכה להתאמץ יותר באסטרטגיית הפרסום שלו, לוח זמנים קבוע של פרסום תוכן הוא דבר חיובי שתמיד היה כדאי לשמור עליו. אין "פרסם ושכח" בכל הנוגע לפרסום תוכן.
עקביות באיכות התוכן
איכות התוכן, התאמתו לנושא ורלוונטיותו למשתמשים לאורך זמן הם שיקולים חשובים שיבטיחו ש-Googlebot ימשיך לבקר באתר. ירידה באחד מהגורמים האלה (איכות, התאמה לנושא ורלוונטיות) עשויה להשפיע על תדירות הסריקה של Googlebot, שהיא בעצמה סימפטום של הגורם החשוב יותר – כיצד האלגוריתם של גוגל מעריך את התוכן.