SEO практика
286 subscribers
43 photos
3 videos
16 files
1.88K links
Телеграм канал на групата "SEO практика" - практическо SEO.
Бележник https://sp.jump.bg/
FB https://t.co/tIVyhNzfLt
Download Telegram
Тази графика е резултат от изследване какъв вид съдържание най-често получава естествени обратни връзки.
Струва ми се, че Гугъл са намалили Topical Authority-то като фактор след последния ъпдейт и са засилили пак важността на линковете.
И ми се вижда логично: с AI стана много лесно да покриеш целия Topical Map за кратко време.
George G. ти доста наблягаш на това, имаш ли някакви наблюдения? Някой друг забелязал ли е промени?

Дискусия
Здравейте, имам следния казус:
Целевата ми страница по ключова дума е категорийна с продукти (онл.магазин). В момента се ранкира ок. 2-3 позиция. На нея има обяснителен текст за продуктите от този тип, който е полезна информация, но потребителите като цяло не четат.
Структурата на URLa е: domain/shop/category/sub-category/sub-sub-category.

Искам да направя нова целева страница тип блог пост с ново съдържание, което обаче неминуемо ще дублира сегашното в някаква степен. Продуктите /ок. 10 на брой/ ще бъдат достижими директно от самата блог статия. Нейният URL ще е: domain/blog/blog-post. Тоест пътят до страницата ще е 2 нива по-кратък.

Та въпросът е има ли смисъл да го правя това цялото нещо и доколко Гугъл би разчел конфликт между двете страници и това да създаде някакъв род проблеми?
Благодаря предварително на отзовалите се.

Дискусия
За вманиачените по ChatGPT, които бързо си стигат лимитите и страдат в зависимостта си тук, поне засега, работещ безплатен сайт:

https://chat.chatbot.sex/chat/
Търся копирайтър за ниша: строителство/бетони. Ако някой има интерес да ми пише на лично.

Дискусия
Привет,

някой наясно ли е как може сайт или отделни страници да се таргетират по държави/региони.

Тоест нещо като ланг тага - <html lang="en-US">

само че доколкото разбирам Гугъл напълно игнорира този таг. Тоест как може един сайт да се посочи, че е на английски, но се отнася например за Канада или пък за Великобритания?

Дискусия
На всеки инструмент трябва добре да се познават силните и слабите страни. GPT не прави изключение. Графиката е базирана на прясно изследване на OpenAI къде GPT 3.5 и 4 се справят най-добре.
Здравейте,
въпросът ми е трябва ли на всеки продукт да има keywords или Google не го зачита вече? Платформа Opencart. Благодаря

Дискусия
Малко изводи от курса на Корай.
- Ако началото на страницата не започва качествено търсачките могат да я пропуснат за неопределен период време. Гугъл си пести ресурсите и започне ли зле, skip-ва. Това може да се случи и с целият ви сайт ако започнете зле и да трябва да изчакаме 1-2 core ъпдейта, за да може Гугъл да ви даде нов шанс.
- Честотата на публикуване е много важна за topical authority-то. Трябва да се избягва патерн. Ако искаме Гугъл да ни отделя повече crawling бюджет можем да постнем повече на брой статии наведнъж, но е важно да са качествени, за да няма обратен ефект.
- Ако искаме да пишем AI статии първо да започнем с качествени писани от човек, за да спечелим доверието.
- Гугъл си рефрешва серпа на Core ъпдейтите. Ако сайта ни изпада лекичко във времето това може да е знак, че на кор ъпдейта ще изпадне много рязко и да се вземат мерки навреме. И обратното, ако си върви леко нагоре на кор ъпдейта може да скочи много.
- да се внимава с контекста на глаголите. Ако не сме сигурни можем да напишем глагола в Гугъл и да видим какви предложения излизат. Например:
Increase health – correct, Improve health – correct, develop health – wrong
- В текста да се болдне отговора, а не търсената фраза
- Препоръчва да прочетем тази статия: https://www.oncrawl.com/technical-seo/creating-semantic-content-networks-with-query-document-templates-case-study/
- препоръчва тази презентация: https://www.slideshare.net/KorayGbr/semantic-search-engine-semantic-search-and-query-parsing-with-phrases-and-entities
- да избягваме в текстовете думи като: Би трябвало..., може би... и всякакъв пълнеж.
- Гугъл предпочита да ранкне един сайт по 20 000 фрази отколкото 20 000 сайта. Това им пести много пари, така че просто трябва да убедите бота, че вашият сайт заслужава това доверие.
- човешкото усилие е quality фактор. Гугъл опитва да засича кога авторът се е постарал и проучил детайлно темата и кога просто е пренаписал нещо.
- Topical map-a обикновено се състои от ентити + атрибут. Важно е да разберем кое е основното ентити на темата и да оформим целия topical map около него.

Някои уточнения:
Много неща не съм ги добавил, тъй като трудно ще се обяснят с няколко думи. Също нещата, които поствам ги е говорил и публично или не са нова информация, не искам да спойлвам много от курса на човека. Все пак се надявам да ви е полезно това, което написах.

Иначе общото ми мнение за курса и дали си заслужават $1000: Доста разтяга локуми, според мен целият курс може да е поне наполовина съкратен. Някои неща ги обяснява доста объркано и трябва да се изгледа лекцията няколко пъти, или обяснява какво е имал предвид в рамките на 5 лекции и човек не знае дали не го е разбрал, или предстои да обясни. Също до тук не видях нещо, което да казва примерно за ecommerce (имам още лекции да гледам), основно говори за content тип сайтове. Голяма част от нещата, които казва също не са нещо уау, с някои не съм и напълно съгласен.

Но като цяло курса ми даде доста идеи + някои неща които не се бях замислил, така че overall съм доволен, но ако сте с големи очаквания може да сте разочаровани. Ако търсите 3% до 5% added value, мисля че ще ги даде. Ако сте му гледали всичките лекции и чели блога може и да е и по-нисък този процент.

Дискусия
Здравейте, от един месец search console показва 600 url с висок CLS. Поработихме по сайта и оправихме проблема, сега при тест в page speed дава CLS 0, но конзолата продължава да показва същите грешки. Пусната е валидация преди няколко дни, но от тогава всичко е все така червено. Въпросът ми е това ще се оправи ли като минат тези 28 дни, или все още имаме проблем? Благодаря ви предварително.

Дискусия
Здравейте, в superhosting има едно нещо supercache, и то има по подразбиране настройка, кешът да се трие на 15 минути. Какви са добрите практики за това триене за SEO?

Дискусия