W trakcie przeprowadzania audytów stron i sklepów internetowych codziennie porządkuję indeks i naprawiam błędne wdrożenia dyrektyw. Ten artykuł to praktyczny przewodnik po noindex: wyjaśniam, co to jest i jak działa, kiedy warto go używać (oraz kiedy nie), jak wdrożyć go poprawnie (meta robots vs X-Robots-Tag) i jak kontrolować efekty w Google Search Console. Pokażę też różnice między noindex, follow a noindex, nofollow, oraz omówię scenariusze dla e-commerce i najpopularniejszych CMS-ów.
Przejdziemy przez konkretne przypadki: duplikacja treści, strony tymczasowe, UGC, logowanie, sekcje w budowie, a w sklepach — wewnętrzne wyniki wyszukiwania, filtry, produkty niedostępne oraz dokumenty prawne. Na koniec dostajesz checklistę, jak usunąć noindex, gdy trafił w niewłaściwe miejsce, i jak utrzymać spójność z sitemapami oraz linkowaniem wewnętrznym, żeby faktycznie poprawić pozycjonowanie zamiast mu zaszkodzić.
Najważniejsze informacje z artykułu:
- Noindex ≠ Disallow: robot musi wejść na stronę, aby odczytać dyrektywę; nie blokuj jej w robots.txt.
- Wdrażaj celowo: używaj noindex m.in. na duplikatach, wynikach wyszukiwania, filtrach, stronach tymczasowych/UGC, logowaniu.
- Dwie ścieżki implementacji:lub nagłówek X-Robots-Tag (świetny dla PDF/assetów).
- Dobierz atrybuty świadomie: najczęściej noindex, follow; noindex, nofollow zostaw dla sekcji wrażliwych/technicznych.
- Mierz i koryguj: sprawdzaj w Search Console (raport „Strony”, Inspekcja URL), trzymaj spójność z sitemapami i canonicalami, a błędny noindex usuń i poproś o ponowne zindeksowanie.
Co to jest noindex i dlaczego warto go stosować?
Noindex to dyrektywa dla wyszukiwarek internetowych, która informuje roboty (np. Googlebota i Bingbota), aby nie dodawały danej strony do indeksu. Najczęściej spotkasz ją w postaci metatagu robots (noindex) albo jako nagłówek odpowiedzi HTTP (X-Robots-Tag). W praktyce noindex to prosa dyrektywa, które pozwala utrzymać czysty, sensowny indeks – bez stron technicznych, duplikatów czy podstron o niskiej wartości.
Historia dyrektywy sięga lat 90.; tag noindex został zaprojektowany w 1996 roku i przez lata stał się standardem sieciowym rozumianym przez dominujące wyszukiwarki. Dziś stosuję go rutynowo w audytach: porządkuje informacje dla robotów i redukuje szum w indeksie. Dzięki temu moc domeny skupia się na podstronach, które realnie mogą rankować. Warto pamiętać, że noindex wpływa na pozycjonowanie SEO – pośrednio. Nie „podnosi” pozycji, ale poprzez odfiltrowanie śmieci (thin content, paginacje bez wartości, parametry URL, strony wynikowe, profile testowe) pomaga algorytmom lepiej rozumieć strukturę i koncentrować crawl budget na ważnych adresach. Efekt? Lepsza widoczność sekcji strategicznych.
Noindex to nie to samo co Disallow w robots.txt. Disallow mówi „nie wchodź”, a noindex mówi „wejdź, ale nie indeksuj”. W większości przypadków, jeśli chcesz skutecznie wykluczyć stronę z wyników, lepszy będzie noindex (bez blokowania w robots.txt), bo robot musi zobaczyć dyrektywę. To kluczowa różnica, którą wprowadzam w planach wdrożeń.
Na koniec: noindex łączy się z innymi dyrektywami, np. noindex, follow (częsty wybór) albo noindex, nofollow (rzadziej, do stron prywatnych/ryzykownych). Trafnie dobrana kombinacja ogranicza indeks, a jednocześnie pozwala przepływać PageRankowi tam, gdzie ma to sens.
Jak działa noindex tag w wyszukiwarkach internetowych?
Z perspektywy robotów mechanizm jest prosty – i warto go rozumieć, aby uniknąć typowych pułapek:
- Noindex blokuje indeksowanie strony w Google: po przetworzeniu dyrektywy dokument zostaje usunięty z indeksu lub nie zostaje do niego dodany.
- Noindex działa tylko wtedy, gdy Googlebot ma dostęp do strony: robot musi załadować dokument, by odczytać meta robots lub nagłówek X-Robots-Tag.
- Noindex nie działa, gdy strona jest zablokowana w robots.txt: jeśli zablokujesz crawl, robot nie odczyta dyrektywy i strona może pozostać w indeksie (np. na podstawie linków zewnętrznych).
- Niektóre szkodliwe roboty (malware, scrapers) potrafią ignorować dyrektywy – noindex nie jest „zaporą bezpieczeństwa”.
- Googlebot odpowiada za indeksowanie stron i to on interpretuje zestaw dyrektyw: index/noindex, follow/nofollow, nosnippet, noarchive itd.
W praktyce widzę dwa kluczowe przypadki: 1) wdrażasz noindex na stronach, które już są w indeksie – wówczas potrzebna jest ponowna wizyta robota, po której adres znika z wyników; 2) wdrażasz noindex na stronach nowych/technicznych – wtedy nigdy nie trafiają do indeksu. W obu sytuacjach pomocny jest raport „Strony” w Google Search Console, gdzie monitoruję statusy.
Pamiętaj, że sitemapy XML nie powinny promować adresów z noindex (to sprzeczna informacja). Jeśli adres musi być w mapie z powodów technicznych, oznaczam go jako <xhtml:link rel=”canonical”> do wersji indeksowanej albo wykluczam z mapy w całości. To częsty punkt z moich checklist wdrożeniowych.
W przypadku duplikatów treści (np. parametry sortowania, filtracja) preferuję noindex, follow nad samym kanonikaliem, kiedy strona nie niesie wartości dla wyników. Canonical mówi „to wariant”, ale nadal może być indeksowany; noindex daje jasny sygnał: nie pokazuj tego URL-a w SERP.
Na koniec detale operacyjne: po wdrożeniu noindex na masową skalę nie odcinaj z dnia na dzień linkowania wewnętrznego, bo możesz utrudnić botowi dotarcie do stron z dyrektywą. Najpierw daj mu odczytać i przetworzyć noindex, potem porządkuj nawigację i linki.
Audyt tagu noindex
W trakcie przeprowadzania audytu SEO online kompleksowo analizuję witryny i wskazuję, co dokładnie należy wykluczyć z indeksu, a co wzmocnić. W ramach audytu przygotowuję listę wdrożeń (w tym strategię noindex / index,follow), priorytety, oraz checklisty QA. Pracuję na Search Console, logach serwera, crawlerach i danych biznesowych, aby uporządkować indeks Google, oszczędzić crawl budget i podnieść widoczność na frazy transakcyjne.
Najszybszy sposób, żeby sprawdzić, czy strona ma ustawiony tag noindex, to użycie wtyczki typu SEO Meta in 1 Click albo podgląd źródła strony w Chrome DevTools. Dzięki temu od razu widzimy, czy roboty Google mają dostęp do strony i czy mogą ją indeksować.


Meta tag noindex i nagłówek X-Robots-Tag – dwie metody wdrożenia
Najpopularniejsza implementacja to meta tag w <head>: <meta name=”robots” content=”noindex”>. Ta forma działa dla HTML i jest idealna, gdy masz kontrolę nad szablonem. Często stosuję wariant noindex, follow, który wyklucza stronę z indeksu, ale pozwala robotom przechodzić linkami dalej, przekazując sygnały.
Druga metoda to nagłówek odpowiedzi HTTP – X-Robots-Tag. Sprawdza się świetnie, gdy chcesz objąć pliki nie-HTML (PDF, DOC, obrazy) albo hurtowo zarządzać dyrektywami na poziomie serwera/CDN. Przykładowe użycie (konceptualnie): dodanie X-Robots-Tag: noindex dla określonych ścieżek, typów MIME lub wzorców URL. To elastyczne i skalowalne rozwiązanie w e-commerce i serwisach contentowych.
Noindex można łączyć z nofollow:
- noindex, nofollow – używam np. przy stronach logowania, strefach prywatnych, sekcjach eksperymentalnych. Uwaga: nofollow odcina przepływ sygnałów – stosuj świadomie.
Jak to kontrolować i weryfikować? Sprawdzam wdrożenia w raporcie indeksowania w Search Console (sekcja „Strony”), wykorzystuję również inspekcję URL oraz crawle (np. renderowane), aby potwierdzić obecność dyrektyw. Najważniejsze jest spójne sygnalizowanie: jeśli masz noindex, nie linkuj agresywnie do tych adresów w elementach widocznych dla robotów i nie dodawaj ich do sitemap.
Na koniec ostrzeżenia z audytów: unikaj konfliktów dyrektyw (np. noindex na stronie, która jednocześnie jest stroną docelową canonical z innego URL), nie mieszaj sygnałów typu max-snippet/nosnippet bez potrzeby i nie blokuj crawlowania w robots.txt stron, na których polegasz na noindex. Robot musi wejść, żeby go odczytać. Dobrą praktyką jest też krótkie QA po deployu: sprawdź nagłówki, źródło HTML i kilka reprezentatywnych adresów.
Strona wykluczona za pomocą tagu noindex – kiedy to robić?
Noindex chroni przed duplikacją treści. W praktyce stosuję go tam, gdzie powstają kopie lub warianty: parametry sortowania, paginacje bez wartości, wersje wydruków, podstrony z tym samym contentem pod różnymi adresami. Dyrektywa noindex daje robotom jasny sygnał: „tej wersji nie pokazuj w SERP”, dzięki czemu sygnały SEO koncentrują się na docelowej stronie kanonicznej.
Noindex na stronach tymczasowych. Landingi pod testy A/B, kampanie o krótkim cyklu życia, podglądy treści – to idealni kandydaci do noindex, follow. Treści są potrzebne biznesowo, ale nie muszą trafiać do wyników wyszukiwania. Gdy kampania się kończy, stronę usuwam lub przekierowuję 301, aby zachować spójność sygnałów.
Noindex dla treści nieistotnych dla użytkowników. Panele filtrowania, koszyk, podziękowania za zakup, podglądy w PDF – to elementy ścieżki użytkownika, które nie niosą intencji wyszukiwania. Wykluczam je z indeksu, żeby nie zabierały widoczności stronom ofertowym i nie rozmywały trafności.
Noindex na treściach generowanych przez użytkowników (UGC). Wątki bez moderacji, profile bez wartości, puste listingi – mogą produkować thin content i duplikację. Tag noindex ogranicza indeksację takich podstron, a jednocześnie (z opcją follow) pozwala zachować przepływ mocy przez linkowanie wewnętrzne do sekcji, które chcesz wzmacniać.
Noindex w trakcie budowy. Gdy developujesz nową sekcję lub migrujesz treści, noindex zabezpiecza przed przedwczesną indeksacją półproduktów. Po odbiorze jakościowym zdejmuję dyrektywę i żądam ponownego zindeksowania w GSC – dzięki temu do SERP trafia wyłącznie finalna wersja.
Noindex dla logowania i paneli administracyjnych. Ekrany logowania, rejestracji czy back-office nie powinny pojawiać się w wynikach. Stosuję noindex, nofollow (czasem wraz z ograniczeniami dostępu), aby minimalizować ryzyko ekspozycji wrażliwych ścieżek i nie marnować crawla.
Noindex w sklepach internetowych – praktyczne zastosowanie
| Typ strony w e-commerce | Zalecany robots |
Dodatkowe działania | W sitemapie | Uwaga SEO |
|---|---|---|---|---|
Wewnętrzne wyniki wyszukiwania (np. /search?q=) |
noindex | Wyklucz z map XML; linkuj do kategorii i bestsellerów | Nie | Chroni przed thin content i duplikacją |
| Strony filtrów produktów (kombinacje atrybutów) | noindex | Wyjątki: wybrane, zoptymalizowane landingi mogą mieć index + unikalny content | Nie (poza wyjątkami) | Oszczędza crawl budget przy setkach wariantów URL |
| Produkty długotrwale niedostępne | noindex, index | W zależności od wypracowanej pozycji, w niektórych przypadkach warto zastosować przekierowanie 301 | ||
| Dokumenty prawne (regulamin, polityka prywatności, cookies) | noindex | Wyklucz z map XML; zadbaj o dostępność z poziomu stopki | Nie | Niepotrzebne w SERP, ale ważne dla użytkownika |
| Koszyk, checkout, strona podziękowania | noindex | Blokuj linkowanie zewnętrzne; testuj po deployu | Nie | Trasa transakcyjna – nie powinna rankować |
E-commerce generuje ogromną liczbę wariantów URL. Tag noindex pozwala zachować porządek i promować te strony, które odpowiadają na intencje zakupowe. W audytach układam jasne reguły index/noindex dla całego sklepu, tak aby roboty nie błądziły po filtrach i wynikach wewnętrznych.
Gdzie w praktyce stosuję noindex w sklepach:
- Strony wyników wyszukiwania w sklepie – to wewnętrzny search, który często tworzy setki słabych listingów. noindex, follow porządkuje indeks, a robot nadal przechodzi do kategorii i produktów.
- Strony filtrów produktów – kombinacje atrybutów (kolor, rozmiar, cena). Jeśli nie mają wartości jako landing SEO, dostają noindex; wyjątkiem są wybrane, zoptymalizowane kombinacje, które celowo indeksuję.
- Produkty niedostępne – w zależności od polityki: noindex dla długotrwale „niedostępnych”, albo utrzymanie index z wyraźnym powiązaniem do alternatyw (cross-linki) przy krótkich brakach.
- Regulamin, polityka prywatności, cookies – dokumenty obowiązkowe, ale nieważne dla rankingu. Zwykle noindex i wyłączenie z sitemap.
- Koszyk, checkout, podziękowanie – czysta ścieżka transakcyjna, zawsze noindex.
Pamiętaj o niuansach dostępności produktów. Gdy strona „chwilowo niedostępna” zbiera linki lub ma istotne recenzje/schema, czasem lepiej utrzymać indeksację i odpowiednio pokierować użytkownika do zamienników – zamiast agresywnie wycinać URL z SERP.
Weryfikuję wdrożenia w Google Search Console (raport „Strony”) oraz w crawlach renderowanych. Kluczowa jest spójność: brak adresów z noindex w sitemapach XML, brak kanonikala wskazującego na stronę z noindex i logiczne linkowanie wewnętrzne (noindex nie oznacza „no link”).
Na dużych sklepach reguły noindex najlepiej wdrażać na poziomie szablonów i/lub X-Robots-Tag w CDN (np. dla PDF-ów, obrazów). To pozwala skalować porządek w indeksie bez ręcznej pracy przy każdym adresie.
WordPress noindex – jak ustawić w praktyce?
| Element / typ treści | Ścieżka w panelu / metoda | Ustawienie robots |
Alternatywa (X-Robots-Tag / kod) | Kontrola w GSC |
|---|---|---|---|---|
| Pojedynczy wpis/strona | Wtyczka SEO (np. Yoast) → Metabox → Zaawansowane | noindex dla stron technicznych/tymczasowych | Warunkowy znacznik w szablonie <meta name="robots" content="noindex"> |
Inspekcja URL → sprawdź meta robots |
| Archiwa (tagi, autor, data) | Wtyczka SEO → Ustawienia wyglądu w wyszukiwarce | Najczęściej noidnex, follow – wyjątek dla autora i kontrolowanych tagów | Filtry w functions.php dodające meta dla wybranych taksonomii |
Raport „Strony” → Wykluczono przez noindex |
Wewnętrzne wyniki wyszukiwania (/?s=) |
Szablon search.php lub hook template_redirect |
noindex, follow | Reguła w motywie/dziecku; opcjonalnie nagłówek HTTP | Inspekcja URL kilku przykładowych zapytań |
| Załączniki/PDF | Reguły serwera/CF Workers | X-Robots-Tag: noindex dla .pdf, obrazów itp. |
.htaccess / nginx: dodaj nagłówek dla typów MIME | Pobierz nagłówki i zweryfikuj w Inspekcji |
| Staging / dev | Ustawienia → Czytanie → „Proś wyszukiwarki o nieindeksowanie” | site-wide noindex (tymczasowo) + brak indeksacji | Basic Auth / ograniczenie dostępu | Po przeniesieniu na produkcję upewnij się, że noindex wyłączono |
WordPress wspiera tag noindex zarówno w rdzeniu (przełącznik „Widoczność dla wyszukiwarek” dla całej witryny), jak i przez wtyczki SEO. W projektach produkcyjnych nie wyłączam całej witryny, tylko precyzyjnie wskazuję sekcje/typy treści do wykluczenia.
Najwygodniej pracuje się przez Yoast SEO (lub inną wtyczkę SEO). Dla pojedynczych wpisów/stron w panelu edycji ustawiam noindex w metaboxie robots. Dla archiwów (tagi, autorzy, daty) konfiguruję globalne reguły: często noindex, follow dla tagów i archiwów autora, jeśli nie są optymalizowane jako landing pages.
Przy niestandardowych typach treści (CPT) i paginacjach ustawiam meta robots w szablonach (warunkowo po ID/slugach) lub filtrami w functions.php. W razie potrzeby dokładam X-Robots-Tag na serwerze/CF Workers, aby objąć PDF-y, obrazy, feedy czy tymczasowe katalogi.
Jeśli korzystasz z dedykowanej wtyczki („noindex plugin WordPress”), traktuj ją jako warstwę zarządzania indeksacją: globalne reguły dla całych sekcji, wyjątki per URL, blokady dla wyników wyszukiwania (/?s=), strony 404, landingów testowych. Po wdrożeniu robię QA: źródło strony, nagłówki HTTP i szybka inspekcja URL w GSC.
Uwaga operacyjna: na środowiskach staging/dev zawsze ustawiam site-wide noindex i dodatkowe zabezpieczenia (hasło/Basic Auth). Po wejściu na produkcję pamiętam o usunięciu globalnego noindex – to częsta, kosztowna wpadka.
Noindex PrestaShop i inne CMS-y – Magento, Shopify, Drupal, Joomla
W różnych CMS-ach dyrektywa noindex ustawia się podobnie: przez meta tag robots w szablonach lub przez nagłówek X-Robots-Tag. W audytach dbam o to, żeby reguły były spójne między platformą a serwerem/CDN i skalowalne na duże wolumeny URL.
Gdzie to włączyć w popularnych systemach:
- PrestaShop – „noindex PrestaShop” działa analogicznie do innych CMS: reguły na stronach wyników wyszukiwania, filtrach i dokumentach ustawisz przez ustawienia SEO/szablony; w razie potrzeby dodaję X-Robots-Tag dla plików.
- Magento – tag noindex dodasz w ustawieniach SEO w panelu (globalnie lub per layout). Dla kategorii/warstwowej nawigacji warto wdrożyć reguły noindex dla kombinacji filtrów, które nie są landingami SEO.
- Shopify – noindex zwykle ustawiam w szablonach (Liquid) dla produktów/kategorii oraz w ustawieniach SEO poszczególnych stron. Dodatkowo X-Robots-Tag przez worker/CF dla assetów i PDF-ów.
- Drupal – użyj modułu Meta tags: dla typów treści, taksonomii i widoków określasz meta robots (index/noindex, follow/nofollow).
- Joomla – przez wtyczki SEO ustawisz meta robots globalnie i na poziomie artykułów/kategorii; dla plików – X-Robots-Tag po stronie serwera.
Po wdrożeniu zawsze wykonuję kontrolę w Search Console i crawl testowy (renderowany), sprawdzam zgodność z sitemapami i canonicalami oraz to, czy przypadkiem nie zablokowano dostępu w robots.txt do stron, na których polegasz na noindex – robot musi wejść, żeby dyrektywę odczytać.
Noindex a indeks Google – co dzieje się z wykluczonymi stronami?
Google przechowuje zindeksowane strony w „indeksie Google”, czyli ogromnej bazie dokumentów i ich treści. Gdy robot odczyta noindex, dokument nie jest dodawany do indeksu albo zostaje z niego usunięty przy kolejnej wizycie. W praktyce status strony zmienia się po przetworzeniu nowej wersji – nie „od ręki”, a po ponownym crawlu.
Indeks zawiera URL + treść + sygnały (m.in. linki, structured data). Po wdrożeniu noindex SNIPPET z wyników znika, ale adres może jeszcze pojawiać się przejściowo w diagnostyce narzędzi lub w pamięci podręcznej, dopóki Googlebot nie przetworzy dyrektywy na wszystkich wariantach URL (z parametrami, protokołem, www/non-www).
Jeżeli strona miała mocne linki lub była często linkowana wewnętrznie, warto dopilnować, by te sygnały nie „utknęły” na wykluczonych adresach. Dlatego tak często rekomenduję noindex, follow oraz logiczne przekierowania (np. 301 z wygaszonych produktów do kategorii lub następców), by zachować przepływ wartości.
W strategiach porządkowania indeksu łączę noindex z porządkami w sitemapach (usuwam wykluczone URL) i kanonikalami (wskazuję wersję docelową). Dzięki temu robot dostaje spójny komplet sygnałów i szybciej oczyszcza indeks.
Noindex robot Google i kontrola indeksowania
Google Search Console daje mi klarowny podgląd liczby zaindeksowanych stron oraz tych wykluczonych z różnych powodów (w tym przez noindex). W raporcie „Strony” weryfikuję, które adresy wychodzą z indeksu i czy nie ma niepożądanych wzrostów w sekcjach „Wykluczono przez noindex” lub „Nie znaleziono (404)”.
Tag noindex sprawdzam wprost w Search Console: używam Inspekcji adresu URL, aby zobaczyć, czy Google widzi aktualny meta robots lub X-Robots-Tag. W razie rozbieżności zestawiam to z crawlami (także renderowanymi) i logami serwera, bo czasem cache/edge/CDN podają starą wersję szablonu.
Kolejny krok to spójność sygnałów. Jeśli raport pokazuje wykluczenie noindex, adres nie powinien znaleźć się w sitemapie. Jeżeli jest odwrotnie – to sygnał, że mapa XML wymaga czyszczenia. Dbam też o to, by canonical nie wskazywał na dokument z noindex, bo to konflikt, który wydłuża porządki.
Na koniec dopinam linkowanie wewnętrzne. Strony z noindex nie powinny znajdować się na ścieżkach nawigacyjnych (menu, breadcrumb, stopka), chyba że świadomie przekazuję sygnały dalej (follow). Porządek w linkach = szybsza i czystsza indeksacja.
Jak usunąć tag noindex, jeśli został dodany błędnie?
Zdarza się, że ktoś omyłkowo włączy noindex na ważnym szablonie. Szybka korekta ratuje widoczność i sprzedaż. Poniżej konkretna checklista, z której korzystam w audytach:
- Zidentyfikuj źródło dyrektywy. Sprawdź, czy noindex pochodzi z meta tagu (HTML), X-Robots-Tag (nagłówek HTTP), czy z wtyczki/CMS.
- Usuń lub nadpisz dyrektywę w miejscu źródłowym (szablon, reguła serwera, ustawienie wtyczki). Uważaj na dziedziczenie w layoutach.
- Wyczyść cache: aplikacja, CDN, serwer. Stara wersja często „trzyma” błędny nagłówek/meta.
- Zweryfikuj wdrożenie: rzut oka w źródło strony, nagłówki HTTP oraz Inspekcja URL w Search Console na reprezentatywnej próbce.
- Zgłoś ponowne zindeksowanie kluczowych adresów (GSC) i uruchom crawl kontrolny.
- Przejrzyj sitemapy i linkowanie: usuń z sitemap adresy, które mają pozostać wykluczone; upewnij się, że ważne landing pages są linkowane i dostępne bez blokad.
Po usunięciu noindex powrót do indeksu nastąpi przy kolejnej wizycie robota. Aby przyspieszyć, utrzymuj stabilne linkowanie wewnętrzne, podaj aktualną mapę XML i skorzystaj z Inspekcji URL dla kluczowych stron. Najważniejsze: zabezpiecz procesy (staging → produkcja), żeby globalny noindex nigdy nie „przeciekł” na live.

Specjalista SEO z ponad 5-letnim doświadczeniem w marketingu internetowym, od 3 lat ściśle związany z branżą SEO. Na swoim koncie ma dziesiątki zrealizowanych projektów SEO, setki przeprowadzonych audytów stron oraz współpracę z markami z sektora e-commerce i B2B. Na co dzień związany z firmą Webixa Sp. z o.o., gdzie tworzy, rozwija i monitoruje strategie SEO dla klientów. Wykorzystując zdobytą wiedzę i praktykę, postanowił założyć nowoczesną platformę do audytów SEO – audytseo-online.pl, która pomaga firmom rozwijać widoczność w internecie oraz ulepszać i monitorować prowadzone działania SEO.

