SEO практика
286 subscribers
43 photos
3 videos
16 files
1.88K links
Телеграм канал на групата "SEO практика" - практическо SEO.
Бележник https://sp.jump.bg/
FB https://t.co/tIVyhNzfLt
Download Telegram
Лятото мина, отново време за работа.

Гугъл са си махнали тежестта на същностите от НЛП апи демото, което масово се ползваше.

Та за тези, които не могат да кодят, съм направил едно малко тулче, където може да си вкарате ваш ключ от Google Cloud Console и да си анализирате текстове, като ще ви показва тежестта на всяко ентити, може да ги лимитирете.

Линк тук - https://george.bg/google-nlp-analyzer/

Друго важно, посоката не групата, за да е активна и интересна и за админите, ще се насочи по-скоро към обсъждане на идеи и новости, свързани с оптимизацията.

Ако някои има въпрос за конкретен сайт или техника, то тя трябва да е обвързана с някаква по-обща тема, от която могат да спечеля и да си вземат полезна информация по-голям брой хора.

Въпроси за дребни технически детайли и неща, които могат да се открият в гугъл с едно търсене, малки обяви и т.н. тривиалности, дори да са по темата, ще се трият.

Дискусия
Здравейте. Издирвам сайт, който е ударен от Core Update през Август и по специално, как ъпдейта е повлиял на обхождането на сайта. (Crawl stats).

Дискусия
Ето и най-полезното нещо което можете да научите от тазгодишния SerpConf

Промокод в коментарите!

Дискусия
Нещо за хората, които са в процес на търсете на ниша.

Като допълнение, бих добавила и друг метод: Ако имате време и/или капитал, не е лоша идея тестването на ниши, за които няма подобни данни, но виждате потенциал в тях. Има ниши, които са нови или са по-нетипични, където няма много конкуренция и не може да се намери достатъчно инфо за приходите, но си имат потинциал. За подобни ниши ви остава или начина с тестването, или да се опитате да излъжете някой конкурент, че имате интерес да му купите сайта и да ви даде повече данни. Като второто не е ясно колко работи.

Дискусия
Как ви се отразяват ъпдейтите дотук? 😁

Дискусия
Чета един доста подробен източник за HCU, и има няколко теории, които ми направиха впечатление:

1. За да се възстанови сайтът от HCU, трябва да се наблегне на покачването на количеството навигационни заявки (има доста интересно сравнение)
2. Как се изчислява колко полезна е статията - ако в първата част се отговаря по-кратко на заявката се води 15% полезна, ако засегнем половината от статията статията - 50% полезна и ако цялата статия в рамките на 2000 думи отговаря на заявката - 100%. Което ме води на мисълта, че статиите да са полезни трябва да се фокусират точно върху едно нещо и да не се бяга в други посоки.
3. Краткия и супер фокусиран контент дори и с по-малко думи се класира много по-добре.
4. AI генерираните статии не са абсолютно никакъв проблем

Можем да направим дискусия по темата ако админите сметнат за ок. Също и да коментираме анализите на този добър човек написал статията :)

Дискусия
Бърз начин да видим кои статии трябва да обновим/оправим.

1. Отивате в сърч конзолата
2. на Date избирате таба Compare и от там избирате Compare last 3 months year over year
3. Избирате от долу под графиката PAGES и сортирате по Click difference.
4. Което е най на минус е с най-голям приоритет

Това на бързо, ако искате повече детайли, може да си експортнете данните и да ги вкарате в Sheets, където има още повече филтри.

Дискусия
Този пост на Hristo Stoyanov ме подсети за нещо основно в оптимизацията.

Винаги, когато създавате съдържание, мислете за потребителя и какви проблеми би могъл гой да има, ако намери страницата ви по ключови думи в сърча.

Опитайте да си представите различните групи потребители и адресирайте проблемите на всички.

Идеята е така да направите страницата, че потребителя да намери всичко там, да си я добави в букмарците и да не се връща повече в гугъл и да търси информация по тази тема.

Тук и един порезен промпт, който може да ползвате с GPT 4 и дава добри идеи:

I am writing an article called "заглавието на статията или ключовите думи, които таргетирате". What personas and their problems I should address in the article.

Дискусия
Някой има ли идея за друг начин за моментално обхождане на току що създаден URL, освен Indexing API?
Че имам един странен казус. Бота минава по едни URL-и, които не трябва да вижда от никъде и минават през sms-и, viber и т.н.
Възможно ли е Viber да го форсват?

Говоря за обхождане на секундата. Буквално. Гледано в сървърните логове.
В друга ситуация това поведение много би ме зарадвало, но в момента е обратното.

Дискусия
Здравейте,
Тулът за проверка на обратни връзки откри такива, които не са добри. Не мога да се свържа със собственика, затова ще ги трия през search console. Оказа се, че някои от въпросните страници с лош линк да изтрити и вече не съществуват в сайта ми. Да трия ли през конзолата или след някакво време бота ще ги изключи сам?

Дискусия
Имам идея да пусна поредица от сайтове за даден тип услуга. За всеки сайт услугата ще е еднаква, само локацията ще е различна и всяка локация ще е на отделен домейн. Също така, мисля си самите сайтове да са почти еднакви като структура и съдържание, само името на локацията да е променено. Някой правил ли го е това скоро и би ли имало значение за Гугъл, че сайтове са почти еднакви, нищо че са за различни локации?

Дискусия
С Dim Be днес си говорихме за новите ъпдейти на гугъл и че са доста сериозни и променят посоката, в която ще се прави вече съдържанието за сайтовете.

Вече не е важно какви думички има на страниците, а и къде и как са разположени.

А най-важното и трудно за сео-тата ще е, че освен с оптимизацията на текста, вече трябва да могат да гледат на съдържанието от различните гледни точки на видовете потребители, които ще посетят страниците им. И съответно най-бързо и лесно да удоволетворят търсенето.

Поствам тук текста от два туита на Мари Хейнс @everyone

https://twitter.com/MarieHaynes/status/1714390395277189584 https://twitter.com/MarieHaynes/status/1714646312807723394

Looking at some sites impacted by the HCU and this one is a good example of how a site can have decent content, but not the most helpful content for a searcher. This site lost rankings for "blue steak".

Let's put ourselves in the shoes of someone who searched for that. They probably want to quickly know, what is it that makes a steak a blue steak. Which content is likely to be most helpful to meet this immediate need?

The site seeing losses. Talks endlessly about how people might want to know what blue steak is and how they're going to explain what it is. Several scrolls down, they answer the question.
This site started outranking them. Almost immediately meets the searcher's needs.

Quora started outranking them too. As has happened for many HCU impacted sites. Quora has real people sharing their opinions on what a blue steak is. Also, that ChatGPT answer answers the question. Much easier to get a quick answer from this page than the full comprehensive article.

The first site was significantly impacted by the HCU. This means most likely Google's systems have determined their content is rarely likely to be the content that fully meets the user's immediate need.

How to recover? (Guessing based on just a very short analysis.) I think this might be a case where the unhelpful content is not necessarily pages to be noindexed. Rather, it means removing the fluff on pages.

All those words that are saying things readers are skimming over are there for search engines - that's SEO first content.

If this were my site I'd revisit every post and make sure that I: -understand what a searcher wants to find -make it incredibly easy to find that quickly and concisely -make sure that part of the content is accurate and more helpful than what already exists

---------------------------------

Here's another good example to look at re helpful content. Yesterday I shared an example of a site that was unhelpful because it had so many words on the page before it actually got to the point of answering a searcher's question. In that case, the searcher's intent was to find the answer to a specific question, "What is blue steak?"

Their intent was likely to get a quick answer. The content that was impacted by the helpful content system had loads of words searchers would just skim over to get to the part that meets their need.

Now, let's look at this example. The site that ranks #1 for "best charcoal briquette" certainly doesn't look like one that is helpful. At least to an SEO.

Most SEOs would look at this page and think it's low quality. Possibly even spam.

Once again, let's put ourselves in the shoes of a searcher who has typed this query.

They're likely doing research. They want to know what their options are and which type of briquette to buy. How do we know what type of content is likely to be considered helpful?

Google uses machine learning to create a model of helpful review content. These questions are different from the helpful content questions. Content that aligns with this model is more likely to perform well. Image 1 is the type of thing the reviews system is trying to reward.

I'd encourage you to try this exercise. Picture yourself standing in the BBQ aisle of a store with your phone in your hand. You've got a bunch of options in

Дискусия
Ще пусна само един скрийн и отговор от Google, намерете го и вижте поста.

Дискусия
Официално от последната Search конференция в Цюрих.
John Mueller:

Дискусия