Administratorzy nieresponsywnych stron internetowych powinni pomyśleć o wdrożeniu zmian. Google uruchomił indeksowanie mobile-first, które preferuje mobilne wersje witryn.
Od kilku lat większość ruchu w internecie generowana jest przez urządzenia mobilne. To zrozumiałe w sytuacji, gdy niemal każdy nosi w kieszeni smartfon. Laptopy nie odchodzą wprawdzie do lamusa, ale statystycznie rzecz biorąc korzystamy z nich rzadziej niż z telefonów. Tym bardziej że wielu mieszkańców krajów rozwijających się nie może sobie pozwolić na „peceta”. Ta prawidłowość została oczywiście dostrzeżona przez Google, który dostosowuje swoje algorytmy do zmieniających się standardów. Koncern z Mountain View opublikował na swojej witrynie informację o zmianach w sposobie indeksowania stron internetowych.
Gigant wprowadza indeksowanie mobile-first. Polega ono na tym, że w sytuacji, gdy strona dostępna jest w wariantach dla urządzeń desktopowych i mobilnych, boty Google’a crawlują i indeksują taką stronę z urządzeń mobilnych.
Dotyczy to zarówno stron responsywnych, rozpoznających urządzenie wysyłające zapytanie do serwera, jak i stron, w których treści zoptymalizowane pod kątem urządzeń mobilnych znajdują się pod osobnym URL-em. W tym przypadku brane pod uwagę będą warianty URL-e z wersją mobilną.
Teoretycznie nie ma powodu do paniki. Strony zaprojektowane wyłącznie pod desktopy nie będą oczywiście wycinane przez Google. Jednak są one często nieprzyjazne dla urządzeń mobilnych, przez co mogą tracić ruch i wypadać gorzej w wynikach wyszukiwania prezentowanych na smartfonach czy tabletach.
To oczywiście wiadomo od dawna. Jednak kolejny „promobilny” ruch ze strony Google powinien przypomnieć administratorom witryn o potrzebie ich dostosowania do urządzeń mobilnych. Nie wiadomo bowiem, czy kolejne posunięcia ze strony giganta z Mountain View nie okażą się dyskryminujące dla stron „desktop-only”.
Certyfikat SSL powinna mieć każda strona www, na której dokonuje się płatności lub która obliguje do pozostawienia danych osobowych – przestrzega dr inż. Artur Pajkert, ekspert z Hekko.pl.
Tylko witryna wyposażona w protokół HTTPS daje internaucie pewność, że jego dane są bezpieczne i chronione przed przechwyceniem czy ryzykiem ich zmienienia. Dzięki HTTPS zapewnia się także autentyczność dla źródła pochodzenia strony www. To między innymi dlatego posiadanie certyfikatu SSL powinno być standardem w czasach, w których zakupy w internecie są już praktycznie normą, a wiele stron daje możliwość pozostawienia danych osobowych.
Nie ukryjesz braku certyfikatu SSL
O braku certyfikatu SSL ostrzega przeglądarka Google Chrome, która oznacza takie strony jako „niebezpieczne”. Dodatkowo, każdy internauta na własną rękę może sprawdzić, czy witryna jest zabezpieczona. Jak mówi ekspert, dr inż. Artur Pajkert: – Wystarczy, że użytkownik sprawdzi adres strony www czy sklepu internetowego. Jeżeli nie zaczyna się od „HTTPS”, a z boku paska adresowego nie pojawia się zielona kłódka, będzie wiedział, że witryna nie korzysta z bezpiecznego połączenia.
Certyfikat SSL wpływa na konwersję!
Witryna wyposażona w protokół HTTPS chroni dane internauty podczas procesu rejestracji, logowania na konto, składania zamówienia i podawania danych osobowych, a także w momencie wybierania płatności online, dokonywania przelewu czy płatności kartą kredytową. To z tego powodu dziś każdy świadomy klient będzie kupował czy pozostawiał swoje dane tylko na stronie, która będzie odpowiednio chroniona. W sposób naturalny więc, witryny bez certyfikacji tracą na wiarygodności, a ich potencjalni odbiorcy rezygnują z konwersji na rzecz stron z działającym certyfikatem. Warto też dodać, że SSL dobrze wpływa na pozycję strony w wyszukiwarce Google, która chętniej winduje witryny z certyfikatem niż te, które go nie posiadają.
Certyfikaty SSL o różnych walidacjach
Trzeba pamiętać, że istnieją certyfikaty SSL o różnej walidacji, czyli poziomie zagłębienia weryfikacji danej strony, np. sklepu internetowego, przez centrum certyfikujące. Ogólnie można wyróżnić trzy: DV, OV oraz EV. Im wyższa walidacja, zatem i weryfikacja tożsamości właściciela strony www, tym wyższy poziom zaufania ze strony internatów.
Czym różnią się certyfikaty SSL? Główne różnice występują w:
- obrębie poziomu wiarygodności,
- opinii na temat wydawcy,
- ilości informacji zawartych w certyfikacie,
- okresie ważności,
- oznaczeniach w przeglądarce,
- liczby domen objętych certyfikatem,
- wysokości kwoty ubezpieczenia, która może wynieść nawet 1,5 mld dolarów.
DV, czyli Domain Validation, to najtańszy certyfikat, w którym weryfikuje się jedynie domenę. Poleca się go właścicielom prostych, wizerunkowych stron www, mających służyć jako wizytówka firmy. Jego uzyskanie zajmuje zaledwie kilka minut.
OV, czyli Full Organization Validation, to certyfikat o bardziej dogłębnej walidacji, w którym internauta znajdzie nazwę i dane firmy, a także potwierdzenie, że dany podmiot jest właścicielem odwiedzanej strony www. Ten certyfikat poleca się stronom www, które zbierają dane o użytkownikach, np. wymagają wypełniania ankiet czy umożliwiają zapis na newsletter.
EV, czyli Extended Validation, to najbardziej szczegółowy rodzaj walidacji, podczas której centrum weryfikacyjne sprawdza dane rejestrowe firmy, umowy spółki oraz prawo do posługiwania się daną domową. Ten certyfikat wybierają przede wszystkim sklepy internetowe, banki oraz duże firmy.
- Certyfikat SSL należy postrzegać nie w kategorii zbędnego wydatku, ale inwestycji, która z pewnością zwróci się, owocując większą liczbą konwersji i przyrostem lojalnych, kupujących klientów – podsumowuje dr inż. Artur Pajkert.
Domenowy biznes kusi wielkimi pieniędzmi. Mając odpowiedni refleks, wyczucie i odrobinę szczęścia można zarobić krocie. Jednak rynek domen to nie tylko giełda i sprzedaże D2B, zarezerwowane dla bardziej doświadczonych „graczy”. Lwią część przychodów rejestratorów domen generują abonenci detaliczni, posiadający w swoich portfelach od jednej do kilku domen. Osoby te wykorzystują posiadane zasoby głównie dla swoich celów (np. budowa prostych stron WWW), brakuje im obycia nie tylko z rynkiem wtórnym, ale i z podstawowymi procedurami i terminami. Ponieważ aktywność domenowa abonentów z tej grupy sprowadza się często jedynie do opłacenia faktury za rejestrację/ przedłużenie, to stanowią oni doskonały „kąsek” dla nieuczciwych firm, pragnących zarobić na niewiedzy. A takich nie brakuje.
Obecnie, zgodnie z danymi podawanymi przez Internet Live Stats, ilość witryn internetowych na świecie wynosi ok. 1,1 miliarda. Informacje te mówią nam zarazem jak wiele osób zaangażowanych jest w tworzenie zasobów globalnej sieci. „Detaliści” mają w tym swój spory udział. Rynek dla oszustów jest więc bardzo duży, a do tego cały czas rośnie. Nowe końcówki, nowe procedury, młodzi adepci webmasteringu czy domainingu tworzą razem środowisko wybitnie podatne na ataki. Nieświadomość robi swoje.
Jednak oszuści w swoich działaniach starają się wykorzystywać nie tylko niewiedzę, ale także pewne predyspozycje osobowościowe ofiar takie jak np. chęć łatwego zysku. Tak jest w przypadku mechanizmu pozwalającego zarobić nieuczciwym firmom na „certyfikatach wyceny”. Idea jest bardzo prosta. Do abonenta domeny zgłasza się niby-broker reprezentujący dużego (a więc prawdopodobnie i zasobnego) niby-klienta. „Broker” przedstawia dysponentowi domeny propozycję odkupienia nazwy snując przed nim wizję przyszłych zysków. Kiedy już abonent zdecyduje się na sprzedaż (bardzo często ofiarami tego rodzaju szwindla padają osoby których domeny NIE są dostępne na żadnej z giełd) pośrednik informuje go, że aby transakcja doszła do skutku jego klientowi niezbędny jest certyfikat potwierdzający wartość domeny. „Papier” taki nie może być jednak wystawiony przez byle jaką firmę. „Broker” – uzasadniając niezbędność dokumentu kwestiami podatkowymi lub księgowymi – informuje abonenta, że podmiot, który reprezentuje, akceptuje jedynie certyfikaty firmy X. Koszt takiego certyfikatu, choć sięgający czasem i kilkuset dolarów, w zestawieniu z kwotą mającą ostatecznie przypaść sprzedającemu za domenę wydaje się śmiesznie niski. Nieświadoma niczego osoba uiszcza opłatę za „glejt”, lecz do sprzedaży nie dochodzi nigdy. Celem pośrednika od samego początku nie był bowiem zakup nazwy dla „klienta”, a jedynie takie podejście abonenta, aby ten zgodził się zapłacić za bezwartościowy w gruncie rzeczy certyfikat.
Innym popularnym oszustwem – tym razem wykorzystującym głównie brak doświadczenia i niewiedzę ofiary – jest szwindel polegający na próbie sprzedaży nieświadomej osobie domen po mocno wygórowanych cenach. Kanciarz występuje tutaj w roli „dobrego wujka”, zobligowanego legislacją do ochrony praw dysponenta domeny nazwa.rozszerzenie-x. Proceder przebiega w ten sposób, że oszust, wykorzystując dane dostępne we WHOIS, kontaktuje się z ww. abonentem informując go, iż reprezentuje rejestratora (firmę), która otrzymała od zewnętrznego podmiotu zlecenie rejestracji domen nazwa.rozszerzenie-y, nazwa.rozszerzenie-z itd. Hochsztapler twierdzi przy tym, że z uwagi na obowiązujące w zakresie własności intelektualnej przepisy, przed rejestracją wspomnianych domen przez ww. podmiot zewnętrzny, zmuszony jest zapytać abonenta „właściwej domeny” czy nie jest on zainteresowany ochroną własnych praw i rejestracją ww. nazw. „Rejestrator” daje też nierzadko do zrozumienia, że nieskorzystanie z jego oferty będzie oznaczało bolesną utratę przyszłych, wymiernych korzyści. Tak podsycana atmosfera strachu sprawia, że niczego nieświadoma ofiara decyduje się w końcu zapłacić za rejestrację domen „uzupełniających”. Oczywiście ceny podyktowane są przez oszusta i odbiegają znacząco od rynkowych. Nawet jeśli do jakiejkolwiek rejestracji dojdzie, to abonent nazwy w rozszerzeniu-x i tak traci.
Czasami oszuści kontaktują się z ofiarami za pomocą tradycyjnej, papierowej poczty. Dane kontaktowe – podobnie jak w przypadku opisywanego wcześniej szwindla – pochodzą z ogólnodostępnego WHOIS. Korespondencja zawiera dokumenty mające swoją formą przypominać poważne dokumenty księgowe – przeważnie faktury VAT za przedłużenie domen (głównie globalnych). I znów, jak w przypadku wcześniej opisanych mechanizmów, wykorzystywany jest brak obycia i niewiedza ofiar. W rzeczywistości to, co zawiera list od oszusta, jest niczym innym jak umową o przeniesienie obsługi nazwy domeny do firmy kanciarza. Akceptacja umowy dochodzi do skutku po wykonaniu przez nieświadomego abonenta załączonej instrukcji. Oczywiście opłata za przedłużenie (a tak naprawdę za transfer, który w przypadku nazw CNOBI wiąże się z automatycznym przedłużeniem) jest mocno wyśrubowana. Warto też zwrócić uwagę na fakt, że na oszustwie takim traci i dysponent nazwy, i jej rejestrator: abonent bez dwóch zdań przepłaca, registrar natomiast „gubi” jednego ze swoich klientów.
Oszustwa domenowe cały czas ewoluują i przysparzają ich organizatorom całkiem niezłych pieniędzy. Aby nie paść ofiarą kanciarzy warto nieustannie pogłębiać swoją wiedzę w zakresie domen i rządzących rynkiem procedur. Zatem… do nauki! ;-)
Kilka dni temu koncern z Mountain View poinformował, że Penguin stał się elementem jądra algorytmu wyszukiwania Google. Co to oznacza dla właścicieli domen i funkcjonujących pod nimi serwisów internetowych?
Google Penguin to aktualizacja algorytmu wyszukiwana Google, ogłoszona 24 kwietnia 2012 r. Jej celem było obniżenie pozycji w SERP witryn, które naruszają wytyczne Google dla webmasterów (Google’s Webmaster Guidelines) przez stosowanie czarnego SEO, czyli niedozwolonych technik pozycjonerskich.
Aktualizacja algorytmu wyszukiwana, według szacunków Google, dotknęła 3,1 proc. zapytań do wyszukiwarki w języku angielskim oraz 3 proc. – w innych popularnych językach: niemieckim, arabskim i chińskim. Odsetek ten był znacznie wyższy w przypadku bardziej „zaspamowanych” języków. Penguin niebawem doczekał się kolejnych aktualizacji, jednak nie wszystkie z nich zostały oficjalnie podane do wiadomości. Po dwóch latach przerwy Google poinformował o kolejnym większym update’cie tego algorytmu.
Dokładne mechanizmy wyszukiwarki Google, a konkretnie: kryteria, którymi posługuje się algorytm wyszukiwania, nie są znane. Wiadomo, że algorytm ten (czy raczej zespół algorytmów) opiera się na ponad dwustu „sygnałach”, czyli wskazówkach, które bierze pod uwagę w hierarchizowaniu wyników wyświetlanych w SERP. Mechanizm uwzględnia m.in. takie kwestie, jak keywordy obecne na stronie, aktualność publikowanych treści, region geograficzny, z którego administrowany jest serwis, czy PageRank strony.
Algorytm wykrywa również próby „tuningu” stron z wykorzystaniem technik black-hat SEO, takich jak nienaturalne nasycenie strony słowami kluczowymi (keyword stuffing), obecność tekstu niewidocznego dla czytelnika, powielanie treści z innych serwisów czy „spamowanie” linkami. Dzięki temu może wyświetlać wyniki bardziej adekwatne do oczekiwań internautów formułujących zapytania do wyszukiwarki.
Wraz z najnowszą aktualizacją Penguin, który był swojego rodzaju dodatkiem do głównego algorytmu, został włączony do jądra algorytmu wyszukiwania. Co to oznacza i jakie są tego konsekwencje dla administratorów stron?
1. Szybsza reakcja wyszukiwarki Google na zmiany na stronach
Strony, które „podpadają” Google’owi z jakiegoś powodu, mogą podnieść swoją pozycję w SERP pod warunkiem lepszego dostosowania się do GWG. Większość takich zmian rejestrowana jest przez Google błyskawicznie – o ile dotyczą „sygnałów” analizowanych przez algorytmy znajdujące się w jądrze systemu. Inaczej jest w przypadku czynników, które rejestrowane są przez algorytmy spoza jądra. Jeśli pozycja witryny została obniżona w rankingach ze względu na uchybienie rejestrowane przez algorytm w rodzaju Penguin (z okresu przed dodaniem go do jądra), może ona odzyskać swój dotychczasowy status dopiero po kolejnej aktualizacji Penguin – oczywiście pod warunkiem uprzedniego usunięcia tego uchybienia. Teraz, po dodaniu Penguin do jądra algorytmu wyszukiwania, ten proces zostanie znacząco skrócony.
2. Penguin stał się bardziej precyzyjny
Penguin, którego zasadniczym celem jest wykrywanie spamu (bezwartościowej treści służącej celom black-hat SEO), będzie teraz bardziej szczegółowo wychwytywał uchybienia webmasterów w stosunku do GWG. Pozwoli to na bardziej precyzyjne targetowanie spamu i obniżanie pozycji danej strony w wynikach wyszukiwania tylko w sytuacji, kiedy faktycznie zawiera ona niepożądane treści – zamiast „całościowego” obniżenia pozycji serwisu w SERP.
Znalezienie bardziej mobilne przyjazne wyniki wyszukiwania
Czwartek, 26 lutego 2015
Poziom Webmaster: wszystkie
Gdy chodzi o wyszukiwanie na urządzeniach mobilnych, użytkownicy powinni uzyskać najbardziej istotne i aktualne wyniki, bez względu na to, czy informacja mieszka na urządzeniach mobilnych stron internetowych lub aplikacji. Ponieważ coraz więcej osób korzysta z urządzeń mobilnych z dostępem do internetu, nasze algorytmy muszą dostosować się do tych wzorców użycia. W przeszłości dokonaliśmy aktualizacji w celu zapewnienia witryna jest poprawnie skonfigurowany i widoczny na nowoczesnych urządzeniach . Zrobiliśmy to ułatwić użytkownikom znalezienie mobile-przyjaznych stron internetowych , a my wprowadziliśmy indeksowanie aplikacji na powierzchnię przydatnych treści z aplikacji. Dziś ogłaszamy dwie ważne zmiany, które pomogą użytkownikom odkryć więcej mobile-friendly treści:
1. Więcej mobile-friendly stron internetowych w wynikach wyszukiwania
Od 21 kwietnia będziemy poszerzamy naszą korzystania z mobilnej obsługi w rankingu sygnału. Zmiana ta wpłynie wyszukiwań mobilnych we wszystkich językach na całym świecie i będzie miała istotny wpływ na nasze wyniki wyszukiwania. W rezultacie, użytkownicy będą mogli łatwiej uzyskać odpowiednie, jakość wyników wyszukiwania, które są wysokie zoptymalizowane dla swoich urządzeń.
Aby uzyskać pomoc dotyczącą tworzenia mobilnej przyjazne miejsce, sprawdź nasz przewodnik stron mobilnych w obsłudze . Jeśli jesteś webmasterem, można przygotować się do tej zmiany za pomocą następujących narzędzi, aby zobaczyć, jak Googlebot widzi swoje strony:
Jeśli chcesz przetestować kilka stron, można korzystać z mobilnej test .
Jeśli masz stronę, można użyć konta Narzędzi dla webmasterów, aby uzyskać pełną listę problemów na urządzeniach mobilnych w całej witrynie przy użyciu Raport urządzeniach mobilnych .
2. Bardziej istotne treści aplikacji w wynikach wyszukiwania
Od dziś zaczniemy wykorzystywać informacje z indeksowanych aplikacji jako czynnik rankingu zalogowanych użytkowników, którzy mają zainstalowaną aplikację. W rezultacie, możemy teraz powierzchniowych zawartość indeksowanych aplikacji bardziej wyeksponowana w poszukiwaniach. Aby dowiedzieć się, jak zaimplementować indeksowanie aplikacji, co pozwala nam na powierzchnię tę informację w wynikach wyszukiwania, rzucić okiem na nasz przewodnik krok po kroku na stronie dewelopera.
Jeśli masz pytania dotyczące zarówno mobilne przyjaznych stron internetowych lub aplikacji indeksowania, jesteśmy zawsze gotowi do rozmowy w naszym Forum pomocy dla webmasterów .
ŻRÓDŁO: Google Webmaster Central Blog
Nie ma uniwersalnej odpowiedzi na to pytanie. Wszystko zależy od tego, jaki zasięg ma mieć serwis, jaka jest jego grupa docelowa, w jaki sposób ta grupa dokonuje zakupów w kategorii produktów, którą oferuje serwis. Niewątpliwie warto znaleźć się wwyszukiwarkach, czyli sam projekt serwisu powinien być przyjazny robotom Google, odpowiednio nasycony słowami kluczowymi. Jeśli wiadomo, że użytkownicy przeglądają internet wurządzeniach mobilnych, strona powinna być przygotowana w responsive web design (RWD). Reklama w wyszukiwarkach jest efektywną metodą pozyskiwania leadów, ale trzeba mieć jakąś strategię, eksperymentować iskrupulatnie analizować wyniki. Należy też od razu pomy - śleć onewsletterze adres e-mail ma każdy, warto więc zachęcić odwiedzającego stronę do subskrypcji. Trzeba mu jednak zaoferować jakąś wartość dodatkową. Oprócz bieżących ofert przesyłać coś, co może mu się przydać iskłonić do ponownych wizyt. Jestem zwolennikiem content marketingu, awtym szczególnym wypadku inbound marketingu, czyli takiego zarządzania treścią wswoim serwisie, jak iinnych (pozyskanych), aby jak najwięcej dróg prowadziło potencjalnego klienta na stronę iskłaniało do skorzystania zoferty. Należy gromadzić dane oklientach, zakupach, zachowaniach klientów zdużej liczby danych można przygotowywać nie tylko analizy wewnętrzne, ale częścią znich podzielić się na forum publicznym, co zwiększa zaufanie do serwisu ibuduje mu ekspercki wizerunek. Strategia zarządzania treścią zakłada też możliwość uruchomienia bloga firmowego co nie jest zadaniem łatwym, bo trzeba systematycznie iciekawie go prowadzić, atakże uczestniczyć wdyskusjach sieciowych, aby zwiększyć widoczność własnych zasobów. Jeśli wiemy, że grupa docelowa korzysta zmediów społecznościowych, również wnich należy być aktywnym. Dzielić się nie tylko ofertą, ale iżyciem fi rmy, dokonaniami jej pracowników, wiedzą branżową. To długi imozolny proces zdobywania zasięgu ibudowania marki, ale iodporny wpewnej mierze na kolejne zmiany walgorytmach wyszukiwarki jeśli stawia się także na SEM.
Jacek Szlak, redaktor naczelny portalu „Marketing przy Kawie”, http://marketing-news.pl
ŻRÓDŁO: Magazyn AfterMarket.pl
Google wprowadził radykalne zmiany w sposobie wyświetlania reklam na stronach z wynikami wyszukiwania. Z SERP znika boczny panel z promowanymi linkami. Teraz treści sponsorowane będą prezentowane tylko powyżej i poniżej listy „organicznych” linków.
Na tym nie koniec zmian. Google zamierza prezentować więcej treści komercyjnych na liście SERP. W przypadku zapytań o wysoko konkurencyjne produkty lub usługi wyszukiwarka może publikować nawet cztery linki sponsorowane zamiast trzech powyżej organicznych wyników wyszukiwania.
O sprawie doniósł m.in. serwis SearchEngineLand.com. Wiadomość została także potwierdzona przez rzecznika Google. – Testowaliśmy nowy layout od dłuższego czasu. Niektórzy użytkownicy mogli to zauważyć na przykładzie ograniczonej liczby wyników dla zapytań o charakterze komercyjnym. Będziemy rozwijać te zmiany, ale skupimy się głównie na frazach wysoko konkurencyjnych, w przypadku których nowy layout pomoże lepiej stargetować przekaz reklamowy i zapewnić lepsze wyniki reklamodawcom – powiedział przedstawiciel koncernu z Mountain View. Modyfikacje zostaną wprowadzone we wszystkich wersjach językowych wyszukiwarki.
Nowe zasady prezentacji treści reklamowych mają jednak dwa wyjątki. Pierwszy dotyczy reklam prezentowanych w Knowledge Panel. Drugi – boxów PLA (Product Listing Ad), które są wyświetlane ponad wynikami wyszukiwania lub obok nich, po prawej stronie.