שגיאות סריקה בכלי מנהל האתרים של גוגל וכיצד לתקן אותן

ישנם לא מעט מצבים בהם אתה מסתכל בכלי מנהל האתרים של גוגל (Google Webmaster Tools) ורואה לנגד עינך עשרות אם לא מאות של שגיאות. עבור רוב האנשים, השגיאות המוצגות בכלי מנהל האתרים נראות כבעיות הרות אסון וגורל, והבעיה האמתית היא שאנו לא יודעים כיצד להתמודד עימן.

חשוב להבין כי באתר "חי ונושם" תמיד ימצאו בעיות. כחלק מהעבודה השוטפת קיים שינוי תמידי של האתר, הוספת תכנים, יצירת קטגוריות ועוד כאלה וכאלה שינויים עלולים לגרור שגיאות אותן גוגל יציג לנו בכלי מנהל האתרים – וזה בסדר!

חשוב להבין מה מסמלת כל בעיה, מה המשמעות שלה וכיצד ניתן להתמודד עימה. קיימות לא מעט שגיאות, אותן מציג מנהל האתרים, וכעת ננסה להבין אילו שגיאות הינן בעלי חשיבות יתרה ואילו שגיאות פחות הרסניות.

כך נראות שגיאות סריקה, כפי שהן מוצגות בכלי מנהל האתרים של גוגל

 שגיאות סריקה בכלי מנהל אתרים

צריך לזכור כי שגיאות כמו 404, של עמודים מקושרים או מאונדקסים, עלולות לפגוע בחווית הגולש אשר מגיע לאתר ומוצא עצמו מול דף שגיאה – דבר הפוגע באמון של אתרך בעיני הגולש ומגדיל את אחוז הנטישה (Bounce Rate) של האתר.

בנוסף, אתה עלול להחמיץ את ה"כוח" של העמוד ושל הקישורים הנכנסים אליו, במצב בו הדף איננו קיים. ביצוע של שינוי פשוט יכול בקלות להפנות את הגולש לעמוד רלוונטי ובמקביל לקבל את הכוח והקישורים של אותו דף לא פעיל. צריך לזכור כי העכביש של גוגל, אשר סורק את האתר באופן קבוע, יודע לזהות דפי שגיאה, ובמידה וקיים מצב בו העכביש סורק דפי שגיאה רבים, קיימת אפשרות שלא יסרקו דפים קיימים, וזאת בלי לדבר על ההשפעה של המצב על יכולת הקידום של האתר.

שגיאות HTTP

סעיף זה מדבר על מצבים בהם מוחזרת תשובת שגיאה, כגון: שגיאה 400, 403 וכו'. מדובר בסעיף בעייתי ללא ספק, אך קיימות בעיות קשות מזה בכלי מנהל האתרים.

במידה ואינכם מבינים מה הוא כל סטאטוס HTTP, תוכלו להעזר בדפי העזרה של גוגל בנושא, אשר נותנים הסבר בנוגע לכל סטאטוס, הסבר של הבעיה הקיימת ופתרון אפשרי למצב.

שגיאות ב- Sitemaps

טעויות במפת האתר (Sitemaps) נגרמות לעיתים קרובות על ידי שימוש במפת אתר ישנה או לחילופין על ידי שימוש בכתובות של דפים במפת האתר המחזירים שגיאות 404. חשוב לבדוק כי כל העמודים המופיעים במפת האתר עובדים, על מנת לאפשר לעכביש של גוגל סריקה קלה של האתר, ללא בעיות.

אחת הבעיות המאפיינות את הסריקה של גוגל, היא סריקה חוזרת ונשנית של העמודים המופיעים במפת האתר הישנה, אותה הסרתם בעבר ואף החלפתם באחרת. על מנת לפתור בעיה זו, עליכם לבדוק כי הסרתם את מפת האתר הישנה מכלי מנהל האתרים של גוגל והעלתם מפת אתר חדשה במקומה. דבר חשוב נוסף שיש לעשות, על מנת להסיר לחלוטין את סריקת הדפים אשר הופיעו במפת האתר הישנה, יש לתת כתובת חדשה ושונה למפת האתר החדשה ולדאוג כי הכתובת של מפת האתר הישנה תחזיר תשובה "404 not found". לאחר מספר סריקות של העכביש, וקבלת 404, תיפסק הסריקה בהתאם למפת האתר הישנה.

בנוסף, אחת הטעויות הנפוצות הן להשתמש במחולל מפת אתר אוטומטית הישר ממערכת ניהול התוכן. זו בדרך כלל טעות מכיוון שאין לנו בקרה על מפת האתר הזו ולכן עלולים להופיע בה כתובות שגויות. כאשר אנחנו מעלים מפת אתר לגוגל אנחנו רוצים שהיא תהיה צחה ונקייה ללא שגיאות.

כתובות האתר לא פעילות

מדובר בשגיאות הנובעות מבעיה בהפניות הקיימות באתר. יש לדאוג לצמצום "שרשרת ההפניות" באתר (למשל: עמוד שמבצע הפניית 301 לעמוד אחר המבצע הפניית 301 וכן הלאה).

סרטון של מאט קאטס בהסבר על "שרשרת הפניות" וההשפעה שלהן על העכביש של גוגל

יש לבדוק כי טיימר ההפניה (Redirect Timer) מוגדר לפרק זמן קצר, ולא לעשות שימוש ב- Meta Refresh בתגית ה- Head של הדפים.

 תקינות הפניות 301

מה חשוב לבדוק לאחר ביצוע הפניות

  • כאשר מבצעים הפניית לצמיתות (הפניית 301), יש לבדוק כי הדף מחזיר סטאטוס HTTP תקין (301). ניתן להיעזר בכלי המוזכר בסעיף "שגיאות HTTP" על מנת לראות את ה- HTTP סטאטוס של הדף.
  • יש לבדוק שההפניות לא מבצעות "לולאה" (Loop), ולמעשה הדף מבצע הפניית 301 לדף עצמו.
  • יש לוודא כי ההפניות מעבירות לדפים קיימים ולא לדפי שגיאה, כגון: 404 (Not Found), 403 (Forbidden), 503 (Server Error) וכו'.
  • חשוב לבדוק כי הדף אליו אנו מבצעים את ההפניה מכיל תוכן ואינו ריק.

כאשר עוברים אתר או מערכת ניהול תוכן עלינו לנהל רשימה של כל כתובות הURL הישנות ויעדם העדכני באתר החדש. מומלץ לעשות קובץ אקסל מסודר כי לאחריו תצטרכו לבדוק שההפניות תקינות.

משום מה במרבית המקרים קורה התרחיש שבו ההפניות שנעשות הינן הפניות 302, לא הפניות 301, אשר גורמות נזק לתהליך המעבר ואף פוגעות במיקומיו ולכן זה לא המקום להקלת ראש. לגבי המדריך השלם איך לעבור אתר ומערכת ניהול תוכן ולהישאר בחיים יש למה לחכות…

חשוב לבדוק את האתר בגרסתו הטקסטואלית, על מנת לראות כי כל הקישורים "נראים לגוגל", ואינם מוסתרים על ידי Javascript, Flash, Cookies, Session ID's, DHTML או Frames. ניתן לבצע זאת על ידי כניסה ל"עותק שמור" של האתר דרך תוצאות החיפוש

 עותק שמור של אתר האינטרנט

ולחיצה על "גירסה טקסטואלית", בראש העמוד, לאחר מכן. אפשרות נוספת היא שימוש בדפדפן טקסט Lynx, אשר מדמה כיצד מנועי חיפוש רואים את האתר.

כך נראית הגרסה הטקסטואלית של אתר דוראן, כפי שהוא מוצג על ידי גוגל

 כך נראה העותק השמור של גוגל

כאן אנחנו יכולים לראות למעשה כיצד גוגל רואה את האתר שלנו, האם הוא באמת מצליח לקרוא אלמנטים מסוימים באתר, ועל ידי לחיצה על הקישורים ניתן לראות אם הם באמת תקינים ועובדים. (קישור JAVA לדוגמא יכולים להיראות בסדר בגרסת הטקסט אך כאשר לוחצים עליהם הם לא מגיבים וזה סימן לחסימה)

חשוב לוודא כי הקוד באתר עושה שימוש בכתובות אבסולוטיות ולא בכתובות רלטיביות. שימוש בכתובות רלטיביות עלול לגרום בעיה, כאשר אתרי Scrapers מציגים את התוכן באתר שלהם, הקישורים הרלטיבים גורמים לעכביש לחפש את הקישור באתר המארח (Scraper) ולאחר שהוא לא מוצא אותו, יוצגו שגיאות "כתובת האתר לא פעילות" בכלי מנהל האתרים שלכם – דבר שיעלה לכם בזמן רב באיתור המקור לתקלה.

שגיאות שנגרמות כתוצאה מהתעלמות מצורך זה הם אינדוקס של כל האתר בלי כתובת www לדוגמא (דבר שגורם לכפילות תוכן בכל אתר) ושגיאות נוספות שיכולות להיווצר. כאשר המערכת בנויה על טהרת הקישורים האבסולוטיים הסיכויים לנזק מצטמצמים כמעט לחלוטין.

לא נמצא

שגיאות "לא נמצא" נגרמות לרוב במצבים שדף מחזיר סטאטוס 404 (Not Found). הסיבות לכך עשויות להיות:

מחיקת דף שהיה קיים באתר, ללא ביצוע הפניית 301

זהו המקרה היחידי שיש לו הצדקה. מחקתם דף ישן שאין לכם עוד צורך בו וגם לא ערכתם שום סוג של הפניה לכתובת הזו הלאה. סביר להניח שלדפים אשר בחרתם להסיר מהאתר גם לא היו קישורים נכנסים על גבי האינטרנט. טיפ כללי : לא מומלץ לקחת דף אחד ולהפוך אותו ל"פח זבל" של הפניות 301 של כל הדפים שהוסרו.

 דף שגיאה 404

שינוי כתובת ה-URL של הדף, ללא ביצוע הפניית 301 של העמוד הישן אליו.

במקרה הזה אנחנו נבחין בנזק למיקומי האתר. מכיוון שגוגל לא ידע בעצמו לזהות ש"עברנו דירה" או שהחלפנו את מערכת ניהול התוכן. במקרה הזה אנחנו נחזה באובדן מיקומים פתאומי של כל הכתובות הישנות והכתובות החדשות יתחילו להופיע להן איפה שהוא במיקומים נמוכים בהרבה. התעלמות קלאסית זו גורמת ממש ל"התחלה מחדש" של כל עבודת הקידום שהושקעה על האתר. זה במרכאות מכיוון שחלק מהחסד יישמר אך אין ספק שנחזה בצניחה כואבת בגרף של גוגל אנליטיקס.

קישור הקיים באחד הדפים באתר לעמוד שאינו קיים

שגיאה זו ניתן לתקן בקלות מכיוון שמדובר למעשה בקישור שגוי שהפניתם בתוך האתר שלכם. שליטה במערכת ניהול התוכן בדרך כלל תפתור את הבעיה אם כי יש מקרים שבהם מדובר במנגנון בתוך האתר דוגמת מנגנון דפדוף (paging) או סרגל הניווט (bread crumbs) שעשוי להוביל לכתובות רלטיוויות או שגויות ואז במקרה כזה תהיו חייבים להיעזר במתכנת שבנה את האתר. במידה ואין לכם גישה ברמה הזו לא יהיה ניתן לתקן את השגיאה.

קישור נכנס לאתר שלך (מאתר אחר), המוביל לדף לא קיים

במקרה זה כדאי להוריד לאקסל את כל הכתובות ולעבור אתר אתר ולבדוק. כן אני יודע שזה נשמע מייגע אבל אלו הקישורים שעבדתם כל כך קשה בשביל להשיג ואתם לא רוצים לוותר ולו אפילו על אחד מהם. מה שעושים הוא לעקוב אחר הרשימה וליצור הפניות 301 מהכתובות השגויות לכתובות הרלוונטיות באתרכם (גם כאן לא מומלץ להפוך דף אחד לפח זבל, דאגו להפנות לכתובת אמיתית שאליה הקישור התכוון להפנות).

העברה של האתר לדומיין חדש, אך התקיות אינן תואמות

סעיף זה הוא למעשה "אותה גברת בשינוי הדרת" של שינוי כתובות הURL ללא ביצוע הפניות 301 לכתובות הישנות. שעוברים דומיין צריך ליצור רשימה מדוקדקת ואז לערוך הפניות 301 מכל הכתובות הישנות לכתובות החדש, אחד אחד !

 הפניות 301 מצביעות על הכתובת החדשה

לסיכום

במקרה שאתם מזהים קישורים נכנסים טובים לאתר, בצעו הפניית 301 מהעמוד הלא קיים אל העמוד אליו ניסו להפנות באמצעות הקישור. במידה והדף הוסר, הפנו את הקישור לעמוד העוסק בנושא דומה או אל הקטגוריה הראשית בה היה קיים הדף.

אין צורך לבצע הפניית 301 לכל דפי ה-404 הנראים בכלי מנהל האתרים. במצב בו קיימות הפניות 301 רבות, תיתכן בעיה של איטיות באתר. במידה וקיימים דפים אותם אתם מעוניינים להסיר, זה יותר מבסדר שהעמוד יציג סטאטוס 404, למעשה זוהי אפילו ההמלצה של גוגל למצבים בהם אתם רוצים שהעכביש של גוגל יפסיק לסרוק את הדף. ניתן לקרוא עוד בנוגע לחשיבות של דפי 404 מבחינת גוגל בבלוג מנהל האתרים ואף לנפץ את המיתוס ש"כל דפי 404 הם לא טובים ועליהם לבצע הפניית 301".

מוגבלת על ידי Robots.txt

סעיף זה הוא לרוב אינפורמטיבי ומטרתו היא להראות אילו עמודים חסומים על ידי קובץ ה- Robots באתרכם. כמו כן, חשוב לבדוק מידי פעם את הכתובות המופיעות בקובץ על מנת לאשר שאינכם מעוניינים שגוגל יסרוק את הכתובות הללו.

במקרים מסוימים המתכנת של האתר עלול לשכוח את הקובץ במעבר לאתר החי. הצואה היא קטלנית! מספיקות כמה דקות תמימות שבהן הקובץ יהיה על האתר החי כדי שגוגל יספיק להסיר עשרות אלפי דפים מהאתר. במקרה כזה תראו ירידה קיצונית בטראפיק וזה יהיה זמן טוב להציץ בכלי מנהל האתרים. במידה ותראו שם כמות כתובות עצומה restricted by robots תדעו שמדובר בטעות מהסוג הזה. במקרה כזה יש למהר למחוק את קובץ הROBOTS ולהתפלל שתחזרו למיקומים הקודמים שלכם.

לכן במעבר מסביבת פיתוח לאתר החי צריך לבדוק בשבע עיניים שלא נשכח קובץ קטלני זה בתיקיית השורש של האתר.

בחלק מהמצבים יופיעו דפים, בלשונית זו, שאינם מוגבלים באמת על ידי קובץ Robots.txt. יש לבדוק פרטנית את העמודים הללו על מנת להבין מה הבעיה הקיימת. שיטה טובה לבדיקה של ה-כתובות המופיעות בעמודה זו היא בדיקת הסטאטוס HTML שמחזיר הדף.

כלים חינמיים לבדיקת server header response

כדאי לבדוק גם את קובץ .htaccess על מנת לשלול חוקיות מסויימת הגורמת להפנייה של העמוד. קובץ זה נמצא יותר בידיים של איש ה-IT או האדם שמטפל לכם באחסון האתר. שם ניתן לערוך הפניות בקלות רבה ברמת השרת (מרבית אנשי ה- IT יודעים לעשות זאת). במידה ומופיעות הגבלות מוזרות רצוי לבקש ממנו להציץ שוב ולראות שהקובץ תקין.

שגיאות Soft 404s

שגיאה זסו נגרמת לרוב על ידי דפים בעלי כמות תוכן מועטה או לחילופין על ידי דפים אשר נראים כמו דפי נחיתה ולא כמו דף רגיל באתר. מדובר בשגיאה שכדאי להימנע ממנה היות והיא פוגעת בחוזקו של הדף אשר מופיע כבעייתי. במידה ואכן מדובר בדף אשר אמור להחזיר תשובת 404, יש להגדירו כ-404, בהתאם לכללים. דף 404 המוצג בסעיף זה אומר למעשה שהסטאטוס של העמוד אינו "404 Not Found". ההמלצה של גוגל בנוגע לדפי 404 מציינת שעל הדף להחזיר סטאטוס 404 או במקרים מסויימים 410 (Gone) במקרים של דפים לא קיימים.

קיימים מצבים בהם בהם דף יכיל, למשל: תמונה ומעט טקסט (דפי נחיתה) ויציג שגיאה Soft 404s בכלי מנהל האתרים. במידה ואכן מדובר בדף בעל חשיבות באתר, עלינו לתקן את הדף ולעבות את התוכן על מנת שהשגיאה תחדל מלהופיע. צריך לזכור כי דפים בעלי תוכן מועט, תמונה עם כמה מילים וכו' עלולים להיחשב כ"דפי זבל" ובכך לפגוע באתר כולו. לכן, במצבים בהם אנו מעלים דף חדש, עלינו להשקיע בייחוד לאחר עדכוני פנדה, השמים דגש רב על איכות התוכן המוצג באתר, ואף מקבל איזכור בהנחיות ליצירת אתרים ידידותיים לגוגל.

הדוגמאות המובהקות לדפי שעלולים ליצור את הבעיתיות יופיעו דווקא באינדקסים אשר מכילים כתובות URL נפרדות לכל כרטיס עסק לדוגמא. בדרך כלל דפים אלו מכילים בתוכם מידעו מועט ואינם באמת חשבים ל"דפים". עד עדכון פנדה בשנה האחרונה גוגל עוד נתן כוח לאינדקסים והסיבה שהם נכחדים יותר ויותר ככל שהזמן עובר זה בדיוק בגלל כמויות דפים בעלי תוכן דליל במיוחד.

חשוב להבין שכיום במידה והאתר מרבה בדפים מסוג זה גם המיקומים האחרים שלו יתחילו להיפגע ולכן העידן שאנחנו נמצאים בו הוא עידן של דפים מלאים בערך מוסף ומידע ופחות נסיון להשיג הרבה דפים באינדקס של גוגל כדי להיראות גדול. היום אנחנו מדברים כבר על איכות ולא על כמות.

אני ממליץ לכם לקרוא בנושא זה גם את הכתבה שלנו "למה כדאי לכם ליצור תוכן עשיר באתרכם"

תם פרק הזמן – Timed Out

אחד ההיבטים אשר קיבלו חשיבות יתרה מצד גוגל הוא נושא זמן טעינה של האתר ושל העמודים בו. שגיאות "תם פרק הזמן" מתייחסות למצב בו הזמן הלוקח לדף להיטען הוא ארוך מידי, דבר הגורם לעכביש של גוגל להפסיק את נסיון ההתקשרות מולו, ובכך לא לסרוק אותו. חשוב מאוד לבדוק את נושא זמני הטעינה באתר באופן עיקבי בכדי למנוע פגיעה באתר. במידה ומופיעות שגיאות Timed Out, יש להתייחס אליהן בכובד ראש ולפתור אותן בהקדם.

מצבים בהם נקבל שגיאות "תם פרק הזמן"

  • שגיאות DNS – מצב בו העכביש של גוגל (GoogleBot) שולח בקשה, אך היא איננה מגיעה לשרת. יש לבדוק את הגדרות ה-DNS על מנת לשלול בעיה מצד השרת. יתכנו מצבים בהם לא קיימת שגיאת DNS והבעיה היא בסריקה של גוגל. ניתן להיעזר בכלי של Pingdom על מנת לבדוק את תקינות ה-DNS באתר.
  • שגיאות URL Timeout – מצב בו העכביש של גוגל מקבל Timeout בנסיון להתחבר לאתר (או לעמוד) או בעת הבקשה עצמה.
  • שגיאות Robots.txt Timedout – במידה וקיים באתר קובץ Robots.txt, אך העכביש של גוגל מקבל שגיאת Timedout כאשר הוא מנסה לגשת אל הקובץ, העכביש של גוגל יפסיק את הסריקה, בכדי למנוע מצב בו גוגל יסרקו דפים המוגבלים על ידי הקובץ. העכביש ינסה לסרוק את האתר במועד מאוחר יותר, גם על מנת לסרוק את קובץ ה-Robots.txt. במידה והקובץ יחזיר סטאטוס 404, העכביש יסיק כי לא קיים Robots.txt באתר ויסרוק את כולו.

כדי לאתר ולהתמודד עם בעיות אלו מומלץ להיות במעקב על סטטיסטיקות הסריקה בכלי מנהל האתרים של גוגל. בסקיצה שלפניכם אנחנו רואים שלושה גרפים. וכל אחד מהם ישקף דבר אחר חשוב שכדאי להבין.

 פעילות googlebot באתר שלכם

כמות דפים נסרקים ביום

כאן נוכל לראות את כמות הדפים שהעכביש של גוגל מגיע לדגום בכל יום. כאשר אתרכם תקין תראו את התנודות יציבות וכאשר אתם אתר שמעדכן הרבה תוכן תראו את הגרף בעלייה. כאשר יש הדרדרות משמעותית בכמות הדפים שגוגל סורק באתר ייתכן שזה נגרם משגיאות חוסר גישה.

קילו-בתים שהורדו בשעה

כאן הסריקה מדווחת לנו כמה קילובייטים העכביש מוריד בביקוריו באתר. כאשר הדפים שלכם כבדים ומכילים תמונות לא דחוסות וקוד מסורבל ייתכן שמשקל הדפים ייעשה כבד מאוד, דבר שיוביל את זמני הטעינה לשחקים ואת העכביש של גוגל להיתקל בשגיאות ו"לאבד סבלנות" כלפיי האתר שלכם.

משך הזמן שהושקע בהורדת דף

זהו הגרף החשוב ביותר ובו אתם יכולים לראות בבירור זמני טעינה גבוהים מהרגיל (מעל 2,000 זה כבר מתחיל להיות לא טוב) בנוסף במידה והגרף משיק לאפס אתם תראו בחלק של הכי נמוך של הגרף. משמעות הדבר היא שהאתר יורד מהאוויר ויש נפילות בשרת. במקרים כאלה יש למהר ולתקן את הנושא. לרוב מדובר בחברת האחסון שלכם. צריך לקחת בחשבון שכאשר יש נפילות בשרת הדבר פוגע באמינות האתר ויגרום לנזק במיקומים בגוגל בצורה אנושה מכיוון שאם יש דבר שגוגל לא סובלת זה אתרים לא אמינים שמופיעים בעמוד הראשון והורסות את חווית החיפוש.

הגישה אינה אפשרית – Unreachable

שגיאות מסוג זה נגרמות מבעיות פנימיות של השרת או בעקבות בעיות DNS. יתכנו מצבי "הגישה אינה אפשרית" לעמודים החסומים על ידי קובץ Robots.txt. במידה ומדובר בעמודים חשובים באתר, יש לדאוג לפתרון מיידי, על מנת למנוע פגיעה בחוזקו של העמוד והאתר.

השגיאות בסעיף זה עלולות להיגרם מהסיבות הבאות

  • במידה והעמוד מחזיר שגיאת XX5. ניתן לראות רשימה של השגיאות באתר World Wide Web Consortium (W3C).
  • בעיות DNS בגישה לדף. במידה ואין אפשרות ליצור קשר עם שרת ה-DNS, עקב השבתה של השרת או תקלה בניתוב לדומיין.
  • אין גישה לקובץ Robots.txt. במצב זה תיפסק הסריקה של האתר, עד שתתאפשר שוב גישה לקובץ ואז גוגל ישוב לסרוק את האתר.
  • בעיית גישה לרשת. מצב בו העכביש מנסה להגיע לדף, אך נתקל בבעיית זמני טעינה ארוכים, מה שמוביל למצב בו ה-Crawler של גוגל מפסיק את נסיון הסריקה. יתכן מצב בו השרת המאחסן מושבת, עמוס או בעל בעיה בהגדרות או מצב בו השרת חוסם את הסריקה של גוגל.
  • בעיות גישה לשרת. מצבים בהם אין חיבור, השרת סגר את החיבור לפני שהתקבלה תגובה, מצב בו התקבלה תגובה חלקית מהשרת, השרת דחה את את החיבור ומצבים בהם השרת סגר את החיבור לפני שהתקבלו כותרות מלאות.

גם כל הסעיפים הללו יכולים להיגרם כתוצאה מהבעיות שהוצגו בסעיף TIMEOUT. רצוי להיות עם העיניים על הגרפים אחד לחודש כדי לוודא שהכל תקין. קחו בחשבון ששגיאות כאלה מצריכות מכם טיפול מיידי!

מסקנות

כלי מנהל האתרים של גוגל מנסה לעזור לנו כמנהלי אתרים, מקדמי אתרים או כל אדם שהאתר שלו חשוב לו, אך ללא ספק שישנו מקום רב לשיפור מצידם. דרך הצגת הבעיות בכלי מנהל האתרים מאופיינת בחווית משתמש נוחה יחסית אך לא מספקת. נסיון להוריד את השגיאות לקובץ אקסל, נתקל לא מעט בבעיות מבחינת ההצגה של הנתונים ורצון שלנו להבין את המקור לבעיות.

בנוגע למפות אתר (Sitemaps), גוגל צריכים לשדרג את הממשק ולאפשר הסרה של כל מפות האתר הקיימות בכלי מנהל האתרים. במידה ומפת האתר הועלתה על ידי חברה חיצונית שהעסקתם, לא תוכלו להסירה. הדרך היחידה בה תוכלו להתמודד עם הבעיה היא להגדיר שהכתובת של מפת האתר הישנה תחזיר סטאטוס 404, על מנת שגוגל תפסיק לסרוק אותה.

נראה כי ככל שבינג ישפרו את כלי מנהל האתרים שלהם, תיווצר "תחרות" (למרות השליטה של גוגל בישראל) שפירותיה יהיו שקיפות מלאה יותר של האתר שלנו, כך נוכל לקבל תמונת מצב אמיתית ונכונה יותר, שתאפשר לנו להפוך את האתר לטוב באמת וקל יותר לקידום במנועי החיפוש, הרי זו המטרה אליה כולנו שואפים.

12 גולשים הגיבו על "שגיאות סריקה בכלי מנהל האתרים של גוגל וכיצד לתקן אותן"

    מאת: שי גרעיני
      מאת: סתיו זילברשטיין
    מאת: תום רוט
    מאת: צ'ארלי אבן
    מאת: שושן כהן
    מאת: תום רוט
    מאת: מנשה אברמוב
      מאת: סתיו זילברשטיין
    מאת: דרור
    מאת: תום רוט
    מאת: אבישי קמינר
    מאת: משה הראל

הגב למאמר:

האימייל לא יוצג באתר. שדות החובה מסומנים *


צרו עמנו קשר

בין לקוחותינו

דוראן שירותי אינטרנט בע"מ - רמז 28 תל אביב - יהודה הנשיא 10 פתח תקווה - ישראל 03-5227221 www.duran-seo.co.il
info@duran-seo.co.il © כל הזכויות שמורות