פרוטוקול אי הכללת רובוטים
מראה
פרוטוקול אי הכללת רובוטים או robots.txt הוא מוסכמה המאפשרת למנהל אתר אינטרנט (Webmaster) להגדיר כיצד יסרק האתר על ידי מנועי חיפוש ובוטים אחרים המצייתים לפרוטוקול. הגדרה זו מתבצעת באמצעות קובץ בשם robots.txt המכיל תחביר מיוחד ונמצא בספריית השורש (root) של האתר. פרוטוקול זה משמש בעיקר להסתרה של חלקים מסוימים באתר ממנועי חיפוש.
על ידי שימוש בפרוטוקול זה אפשר להורות למנועי חיפוש לא לאנדקס דפים מסוימים באתר.
ראו גם
[עריכת קוד מקור | עריכה]קישורים חיצוניים
[עריכת קוד מקור | עריכה]- אתר האינטרנט הרשמי של פרוטוקול אי הכללת רובוטים (באנגלית)
- קובץ robots.txt של ויקיפדיה העברית
- מה זה קובץ robot.txt ומה השימוש הנכון עבורו? באתר ZEFO