구글 검색 알고리즘 변천사: 업데이트 역사와 대응법

검색 알고리즘의 변화는 보통 조용히 온다. 통계를 묵묵히 재정렬하고, 상단 노출을 바꾸고, 비슷해 보였던 두 페이지 중 하나의 생사를 갈라놓는다. 현장에서 체감할 때는 더 즉각적이다. 전날까지 트래픽이 안정적이던 사이트가 새벽 이후 반 토막이 나거나, 그 반대로 조용히 두 배로 뛴다. 이런 파고를 지나며 깨닫는 건 단순하다. 알고리즘은 이벤트가 아니라 방향성이라는 점이다. 구글은 수년간 한 메시지를 반복해왔다. 사용자에게 더 적합한 결과, 더 나은 경험, 더 신뢰할 수 있는 정보. 업데이트는 그 방향을 조금씩 정교화한 흔적이다.

이 글은 중요한 업데이트의 맥락과 그 결과, 그리고 실무에서 통했던 대응법을 경험적으로 정리한다. 특정 연도의 세부 버전 번호보다, 왜 그렇게 바뀌었는지와 무엇을 해야 살아남는지가 중요하다.

초창기 질서와 패턴: 페이지랭크에서 시작해 스팸과의 밀당

구글의 원류는 링크를 신뢰의 표로 본 발상이다. 페이지랭크는 웹이 스스로 투표한다는 가정 위에 서 있었다. 당시에는 앵커 텍스트 최적화와 디렉터리 등록, 상호 링크만으로도 노출이 올라갔다. 자연스럽게 시스템의 맹점을 겨냥한 기술들이 등장했다. 링크 팜, 감춰진 텍스트, 키워드 스터핑, 자동 생성 페이지. 2000년대 중후반까지는 이런 전술이 다수의 SERP에서 버텼다.

구글이 첫 번째로 본격적인 제동을 건 흐름은 스팸 감축과 품질 신호 도입이었다. 크롤링과 색인, 랭킹 중 랭킹만 바꾸면 된다는 가정은 곧 깨졌다. 구글은 사이트 전체의 신호, 사용자 행동, 문서 내부의 정합성을 더 많이 본다. 이 흐름을 결정적으로 굳힌 계기가 판다와 펭귄이다.

판다 업데이트: 낮은 품질을 체계적으로 식별하려는 시도

2011년 시작된 판다는 얕은 콘텐츠에 비용을 매겼다. 얕다는 건 단어 수만의 문제가 아니다. 가치 없는 반복, 파편화된 페이지, 광고와 콘텐츠 비율의 불균형, 중복 페이지군을 의미한다. 당시 콘텐츠 팜으로 대표되던 대형 사이트들이 트래픽을 크게 잃었고, 중소 사이트도 템플릿성 페이지를 대량 생산하던 곳이 타격을 받았다.

실무에서는 사이트 전체 품질 점수라는 개념이 자리 잡았다. 단일 페이지가 잘 써졌더라도 사이트의 상당 부분이 얕다면 그 여파가 퍼졌다. 내 경험상 판다 영향으로 떨어진 사이트는 개별 페이지 최적화만으로 회복이 어렵다. 서브디렉터리 단위로 묶어서 저품질 페이지를 걷어내거나 병합하고, 얇은 리뷰 200개를 20개의 깊이 있는 가이드로 재편하는 식의 구조 개편이 필요했다. 이 과정에서 색인을 제한하는 noindex, rel=canonical, robots.txt 전략이 함께 나왔다.

판다 이후의 체크포인트는 간단했다. 이 페이지가 실제 사용자의 질문에 답하는가, 답하려면 어느 정도의 맥락과 근거가 필요한가, 같은 주제를 다룬 내 사이트 내 다른 페이지와 충돌하지 않는가. 텍스트 량을 늘리는 요령이 아니라 중복을 없애고 깊이를 만든 설계가 관건이었다.

펭귄 업데이트: 링크 게임의 판을 뒤집다

2012년의 펭귄은 비자연적 링크에 칼을 들이댔다. 대량의 구입 링크, 앵커 텍스트 과다 최적화, 국가 외 도메인에서 온 의미 없는 링크, 위젯 링크 같은 스케일형 전술이 목표가 됐다. 이 업데이트 전에는 링크 해제 요청과 거부 도구를 쓸 일이 드물었다. 이후에는 월 단위로 링크 프로필을 점검하는 것이 기본이 됐다.

실제 복구 사례를 보면, 두 가지가 공통적이다. 첫째, 앵커 텍스트의 분포를 브랜드, URL, 일반 문구로 분산시키고, 상업 키워드 앵커는 10% 이하로 낮춘다. 둘째, 링크 획득의 출처를 테마와 지역성 측면에서 정합적으로 꾸린다. 업계 협회, 파트너십, 기고, 로컬 보도 자료처럼 컨텍스트가 있는 링크는 장기적으로 안전했다. 반대로 블로그 네트워크나 서브도메인 떼어내기로 과거 링크를 숨기는 식의 편법은 나중에 더 큰 하락으로 돌아오는 경우가 많았다.

펭귄의 교훈은 단순하다. 링크는 결과이지 목표가 아니다. 사용자가 모이고 인용이 발생하는 콘텐츠와 활동을 기획하는 것이 결국 최선이다.

허밍버드와 검색 의도: 단어가 아니라 의미를 이해하려는 전환

2013년 허밍버드는 검색 질의 해석 능력에 초점이 있었다. 문장형 검색, 구어체, 모호한 개념을 해석하는 데 의미 기반 접근이 강화됐다. 그 전에는 완전 일치 키워드 매칭이 중요한 축이었다면, 허밍버드 이후에는 관련 개념과 시맨틱 연결성이 영향을 넓혔다.

여기서 실무적 포인트는 정보 설계다. 동일 키워드를 각기 다른 페이지로 쪼개는 방식은 오히려 내부 경쟁을 만들었다. 하나의 허브 페이지가 주제를 충분히 포괄하고, 하위 항목은 서브 페이지로 연결하되 키워드 중복을 줄이는 체계가 더 잘 작동했다. 또한 FAQ 블록, 정의 영역, 개념 맥락을 짚어주는 문장이 질의 의도와 매칭되는 데 도움이 됐다. 자연어로 질문을 반복해보고, 그 질문을 페이지 안에서 실제로 풀어 쓰는 작업이 유효했다.

랭크브레인: 머신러닝 신호의 현실적 의미

2015년 전후 공개된 랭크브레인은 구글이 머신러닝을 랭킹에 적용한다는 상징이 됐다. 과장된 해석이 많았지만, 핵심은 비정형 질의나 처음 보는 질의에 대한 일반화 능력을 개선했다는 점이다. 페이지를 머신이 이해하기 쉽게 만들어야 한다는 메시지로 오해되기도 했지만, 실제로는 사용자 반응과 관련성 신호의 중요도가 더 올라갔다고 보는 편이 맞다.

현장에서 느낀 변화는 CTR과 체류, pogo-sticking 같은 사용자 시그널의 간접 영향력이 커졌다는 점이다. 제목과 설명을 사실적이면서도 선택을 유도하게 쓰는 능력이 성패를 좌우했다. 과장되거나 낚시성 메타 텍스트는 초기엔 클릭을 얻어도 곧바로 하락했다. 반대로 제목에서 명확한 약속을 하고, 본문에서 그 약속을 정확히 이행하면 순위가 더 안정적이었다.

모바일과 속도: 페이지 경험으로 확대된 품질

모바일 프렌들리 업데이트, AMP의 확산과 위축, 페이지 속도 업데이트로 이어진 흐름을 따로 떼기 어렵다. 2015년 이후 모바일 사용이 급격히 늘면서 SERP는 모바일 기준으로 재편됐다. 속도는 사용자 경험과 크롤링 효율, 서버 비용의 문제이기도 하다.

사이트 개편 프로젝트에서 체감하는 건 TTFB와 LCP의 상관관계다. 서버 응답 지연이 200ms에서 800ms로 늘어난 순간, 콘텐츠 렌더링 지연도 같이 악화된다. 이미지 포맷을 WebP로 전환하고, 중요 요소의 프리로드를 걸고, 서드파티 스크립트를 절제하면 LCP가 수 초에서 2초대까지 내려오는 걸 여러 차례 봤다. 속도는 단발성 튜닝이 아니라 유지보수의 습관이다. 새로 붙은 마케팅 태그 한 줄이 300ms를 잡아먹을 수 있고, 이를 통제하는 거버넌스가 없으면 어느 날 다시 느려진다.

BERT와 MUM: 문맥, 어휘, 다중 양식 이해의 확장

2019년 BERT는 문장의 전후 맥락을 반영하는 언어 모델을 검색에 도입했다. 긴 꼬리 질의와 전치사 의미, 복합 구조에서 차이가 났다. 이어서 공개된 MUM은 다국어, 다중 양식 이해를 지향한다. 이 말은 단지 기술 자랑이 아니다. 사용자는 점점 복잡한 작업을 검색에 맡기고, 구글은 그 작업을 단계로 분해해 힌트를 제시하려 한다.

현장에서 BERT가 의미하는 건 억지 키워드 삽입의 종말이다. 자연스러운 문장, 실제 사용자가 하는 식의 질문과 답변, 문단 간 논리 흐름이 더 중요해졌다. 요약 블록이나 스니펫 노출을 의식할 때도 문장 하나로 명확한 정의를 제공하는 게 도움이 된다. 하지만 과한 최적화는 금물이다. 대답을 스니펫 맞춤형으로 깎아내서 문맥이 부자연스러우면 페이지의 신뢰감이 떨어진다.

코어 업데이트: 방향성을 재조정하는 대수술

구글은 매년 여러 차례 광범위한 코어 업데이트를 실시한다. 특정 전술을 겨냥한다기보다, 신호의 가중치를 재조정하고 검색 품질을 전반적으로 높이는 과정에 가깝다. 코어 업데이트 후 하락했다면, 대개 단일 체크리스트로 복구되기 어렵다. 이유는 상대 평형 때문이다. 내 사이트가 나빠진 게 아니라, 다른 사이트가 더 나아졌을 수 있다.

코어 업데이트 대응에서 성과를 본 접근은 세 가지다. 첫째, 검색 의도 분류 재검토. 정보형, 상업형 조사, 거래형, 지역형 중 무엇을 노리고 있는지 다시 정의하고, 페이지 구조와 CTA, 미디어 구성을 그 의도에 맞춰 재배치한다. 둘째, 동료 그룹 비교. 같은 주제에서 상위권에 오른 페이지들을 질적인 관점에서 비교 분석해 부족한 콘텐츠 깊이나 매체 다양성을 보완한다. 셋째, 사이트 신뢰 신호 강화. 회사 정보, 저자 정보, 편집 원칙, 업데이트 이력, 출처 인용을 눈에 보이게 정리한다. 이른바 E‑E‑A‑T 신호를 증거로 보여주는 일이다.

링크와 권위: E‑E‑A‑T의 실체와 오해

경험, 전문성, 권위, 신뢰라는 네 단어는 하나의 점수라기보다 사용자와 검색엔진이 위험을 줄이는 장치다. 저자 프로필을 꾸미는 것만으로 변화가 생기지는 않는다. 반대로 누적된 활동이 사이트의 무게감을 만든다. 실제로 변화를 만든 사례들을 보면 공통점이 있다. 오프라인의 신뢰가 온라인으로 반영된 경우다. 예를 들어, 의료 정보 사이트는 실제 의료진의 감수와 심사 프로세스를 공개했을 때 건강 관련 쿼리에서 가시성이 좋아졌다. 제조업 B2B 사이트는 인증과 특허, 기술 백서, 전시회 발표 자료를 아카이브로 묶어 공개한 뒤 산업 키워드에서 도약했다.

링크 획득 전략도 E‑E‑A‑T와 연결된다. 무관계 매체 100곳에서 받은 링크보다 업계 핵심 5곳의 자연 링크가 더 강력했다. 숫자가 아니라 맥락과 출처의 신뢰가 좌우한다. 디지털 PR은 유효한 수단이지만, 제품 없는 화제 만들기나 과장된 통계는 단기 스파이크 후 역효과를 부른다. 실사용 데이터, 독자적 조사, 실패 사례 공유 같은 진짜 콘텐츠가 더 오래 남는다.

사용자 경험 신호: 코어 웹 바이탈을 넘어서

구글은 코어 웹 바이탈을 공식화했다. LCP, CLS, INP 등 지표는 중요하지만, 현장에서 체감하는 품질은 더 넓다. 내비게이션의 예측 가능성, 광고 밀도와 위치, 레이아웃 점프, 접근성, 다크 패턴의 부재. 검색에서 들어온 사용자는 목적이 뚜렷하다. 그 목적을 방해하지 않는 동선이 결국 성과로 이어진다.

데이터로 접근하려면 혼합 지표가 필요하다. 예를 들어 제품군 카테고리 페이지는 스크롤 깊이와 필터 사용률, 목록에서 디테일 페이지로 넘어가는 클릭 비율을 함께 본다. 정보 페이지는 목차 상호작용, 섹션 체류, 스니펫으로 답한 쿼리에서의 바운스율 감소를 추적한다. 숫자를 붙들다 보면 콘텐츠 개선 포인트가 선명해진다. 이미지 캡션 하나, 표 하나, 단계별 설명을 추가했을 때의 미세한 변화가 누적돼 큰 차이를 만든다.

스팸 업데이트와 자동 생성 콘텐츠의 경계

스팸 업데이트는 주로 자동 생성, 스크레이핑, 링크 스팸을 정조준한다. 최근 몇 년 사이 자동 생성 콘텐츠의 품질이 높아졌고, 규모도 거대해졌다. 문제는 사용자의 손익이다. 대체 가능한 정보로 채운 페이지가 검색 결과를 차지하면 사용자는 시간을 잃는다. 구글이 여기에 강경해진 건 자연스러운 수순이다.

실무적 경계선은 명확하지 않다. 템플릿을 활용하되 단순 치환을 넘어서 현장 데이터와 사례, 사진, 실험 결과를 붙이면 유의미한 독립 가치가 생긴다. 지역 페이지도 마찬가지다. 지명과 주소만 바꾼 페이지는 위험하다. 지역별 재고, 배송 리드타임, 지역 고객의 후기처럼 진짜 차이를 제공해야 한다. 자동화를 도입하더라도 검토와 큐레이션의 층을 둬야 안전하다.

실험의 단위: 전체 리뉴얼보다 가설 검증

대형 사이트에서 가장 큰 실패는 한번에 전체를 갈아엎는 것이다. 구조, 템플릿, 콘텐츠 톤, 내부 링크, 데이터 레이어가 동시에 바뀌면 영향 분석이 어려워진다. 가설 단위의 실험이 낫다. 예를 들어 제품 상세 페이지에서 상단에 핵심 스펙 표를 넣는 변경을 30% 트래픽에만 적용해본다. 4주간 CTR, 스크롤, 전환을 비교해 유의미하면 확대한다. 블로그 아카이브 재정비도 우선순위를 정한다. 검색 유입이 많은 상위 20% 기사부터 리프레시하고, 내부 링크 허브를 구축한다.

실험은 실패가 절반이다. 그 실패가 값진 이유는 업데이트가 와도 근거를 남긴다는 데 있다. 어떤 요소가 효과 없는지 아는 것도 중요하다. 메타 제목에서 숫자를 쓰면 더 나은가, 연도를 넣으면 향상되는가, 동영상 썸네일을 삽입하면 CTR이 올라가는가. 업계와 키워드군에 따라 답이 다르다.

데이터와 관찰: 로그, 서치 콘솔, 크롤러를 삼각 측량하기

서치 콘솔은 검색어와 노출을 보여주지만, 전체를 말해주지는 않는다. 서버 로그는 크롤링 빈도와 보틀넥을 드러낸다. 상위 디렉터리의 크롤링이 줄었다면 내부 링크 구조 문제일 수 있다. 수집 보류가 늘었다면 렌더링 비용이나 중복 신호가 원인일 가능성이 있다. 상용 크롤러와 자체 스크립트를 섞어 페이지 유형별 이슈를 표준화해보면, 업데이트 이후의 탈락 페이지 패턴이 보인다. 예를 들어 제품 변형 페이지가 색인 탈락을 반복한다면, 색인 대상 정책이나 변형 처리 방식이 원인일 수 있다.

하나의 습관을 추천한다. 업데이트가 감지된 시점부터 2주간, 일 단위로 상위 쿼리의 평균 위치 이동을 추적해 히트맵을 만든다. 상승과 하락의 공통 분모를 테마로 묶는다. 이 과정에서 의외의 발견이 나온다. 거래형 쿼리가 하락했는데, 정보형은 상승했을 수 있다. 그럼 의도 불일치가 원인이 된다. 반응은 각각 달라야 한다.

콘텐츠 전략의 재정렬: 카테고리와 토픽 클러스터

알고리즘이 의미를 더 잘 이해할수록, 사이트는 주제 구조를 더 명료하게 보여줘야 한다. 토픽 클러스터 전략은 여전히 유효하다. 하지만 키워드 지도만으로는 부족하다. 구글SEO 사용자 여정과 비즈니스 목표를 함께 놓고 지도를 그려야 한다. 연구-비교-결정-사용-문제 해결의 단계마다 필요한 정보를 배치한다. 동일 단계의 기사끼리 내부 링크를 강화하고, 다음 단계로 자연스럽게 이어지는 흐름을 만든다.

중복의 그늘을 경계해야 한다. 다루는 주제가 많아질수록 유사 문서가 쌓인다. 분기마다 클러스터 단위로 정리하는 루틴이 필요하다. 통합, 리다이렉트, 아카이브, 완전 삭제의 네 가지 선택지를 기준으로 삼는다. 삭제가 두려울 수 있지만, 정리된 구조는 크롤링 예산을 절약하고 핵심 페이지의 신호를 강화한다.

로컬, 이미지, 동영상: 수직 결과의 무게

알고리즘 업데이트의 영향은 수직 검색에서 더 크게 보이기도 한다. 로컬 팩, 지도, 이미지, 동영상, 뉴스 결과가 본문 링크 상단을 차지하면 일반 페이지의 클릭몫이 줄어든다. 그렇다고 불평만 할 일은 아니다. 상품 카테고리라면 이미지 검색 최적화가 종종 ROI가 높다. 파일명, ALT, EXIF, 썸네일 일관성, 이미지 사이트맵의 촘촘함이 차이를 만든다. 동영상은 제목과 설명뿐 아니라 챕터 타임스탬프가 검색 노출에 영향을 준다. 로컬은 카테고리 선택, 리뷰 응답, 사진 업데이트, 서비스 범위 명시, NAP 일관성 같은 기본기가 장기적으로 격차를 벌린다.

AI 생성 결과와 검색 경험의 변화에 대한 현실적 시나리오

최근 구글은 요약형 응답과 생성 요소를 실험하고 있다. 사용자가 클릭하기 전에 충분한 답을 받는 환경에서 트래픽은 줄 수 있다. 하지만 모든 쿼리가 요약형에 적합하지 않다. 복잡한 비교, 선택의 뉘앙스, 최신 재고와 가격, 지역 변동, 위험과 책임이 걸린 결정은 원문 탐색이 필요하다. 여기에 기회가 있다.

차별화 전략은 정보의 고유성이다. 1차 자료, 실험과 측정, 인터뷰, 독점 데이터. 생성 요약이 가져갈 수 없는 자산에 투자하면 SERP가 바뀌어도 수요가 남는다. 동시에 스니펫 친화적 구조를 설계한다. 질문에 대한 간결한 정의 문장, 표와 요약, 단계 구분. 요약이 일부 트래픽을 가져가더라도 브랜드 노출은 상승한다. 실제로 요약 노출 이후 브랜드 검색이 늘고, 직접 유입이 증가하는 패턴을 관찰했다.

상황별 대응 체크리스트

아래의 간결한 체크리스트는 업데이트 직후 진단과 조치를 빠르게 도울 때 쓰기 좋다.

    서치 콘솔에서 하락 쿼리 상위 100개의 의도를 분류해본다. 의도 불일치가 보이면 템플릿을 수정한다. 로그 분석으로 크롤링 빈도와 응답 코드를 점검한다. 특정 디렉터리의 급감은 내부 링크 문제일 수 있다. 상위 경쟁 페이지 5개와의 차이를 표로 적는다. 콘텐츠 깊이, 미디어, 저자 정보, 최신성, 출처 인용을 비교한다. 링크 프로필의 앵커 분포를 확인하고 상업 키워드 비중을 낮춘다. 무관계 출처 링크 정리를 병행한다. 코어 웹 바이탈 측정치가 나쁜 템플릿을 우선 개선한다. LCP 요소 식별과 이미지, 폰트 로딩 최적화를 묶어 처리한다.

장기 로드맵: 업데이트에 흔들리지 않는 구조 만들기

업데이트는 계속된다. 방어가 아니라 체질 개선이 해답이다. 장기 로드맵을 세울 때 다음의 원칙이 도움이 된다.

첫째, 주기적인 콘텐츠 리프레시. 최신성은 단순 날짜 갱신이 아니다. 데이터와 규정의 변경, 제품 스펙, 가격 구조, 기능 추가가 많아진 세상에서 오래된 정보는 위험하다. 편집 캘린더를 만들고, 트래픽과 전환, 외부 링크가 많은 페이지부터 6개월 혹은 12개월 주기로 점검한다. 변경 이력을 페이지에 남기는 것도 신뢰에 도움이 된다.

둘째, 저자 시스템과 편집 윤리. 누가 썼고, 어떤 검토 과정을 거쳤는지를 투명하게 공개한다. 오류 신고 채널을 두고, 반영 속도를 약속한다. 의학, 금융, 법률처럼 위험 민감 주제는 특히 그렇다. 외부 전문가와의 협업 모델을 설계해 콘텐츠의 깊이를 확보한다.

셋째, 구조화 데이터의 전략적 활용. FAQ, HowTo, Product, Organization, Author 같은 스키마를 무분별하게 붙이는 게 아니라, 페이지의 목적과 일치하는 마크업만 적용한다. 이벤트나 재고, 가격처럼 변동이 잦은 데이터는 피드와 자동화를 연계해 정확도를 유지한다.

넷째, 검색 외 채널과의 균형. 이메일, 커뮤니티, 소셜, 직접 유입, 앱. 어느 하나라도 건강하게 키워두면 검색 업데이트의 변동성이 줄어든다. 특히 뉴스레터는 높은 재방문과 반복 전환을 만든다. 수요를 빌리지 말고 길러야 한다.

다섯째, 기술 부채를 관리하는 개발 프로세스. 배포 전에 SEO 리그레이션 체크를 자동화한다. 타이틀 중복, 메타 로봇, 캐노니컬, hreflang, 스키마, 사이트맵, 내부 링크 단절을 배포 파이프라인에서 검사한다. 작은 버그가 업데이트 시점에 치명상이 될 수 있다.

업종별 참고점: 전자상거래, 콘텐츠, B2B

전자상거래 사이트는 제품 변형과 색인 정책이 핵심이다. 컬러나 사이즈가 많을수록 중복과 캐노니컬 혼란이 생긴다. 필터 파라미터를 색인에서 제외하고, 검색 수요가 있는 조합만 랜딩 페이지로 살리는 전략이 필요하다. 리뷰의 품질도 큰 축이다. 사진과 맥락 있는 사용 경험이 담긴 리뷰를 늘리는 기능 설계가 실제 전환과 순위에 모두 도움을 준다.

콘텐츠 퍼블리셔는 카테고리 아키텍처와 권위의 축적이 승패를 좌우한다. 단발성 이슈 기사만 양산하면 업데이트 때 요동친다. 기획 기사, 데이터 저널리즘, 서비스형 콘텐츠를 늘려 묵직한 링크를 축적한다. 광고 배치는 신중해야 한다. CLS와 가독성을 해치면 단기 수익이 장기 손실로 이어진다.

B2B는 검색량이 적고, 전환 여정이 길다. E‑E‑A‑T의 실효를 가장 크게 느낄 수 있는 분야다. 케이스 스터디, 화이트페이퍼, 세미나 자료, 엔지니어 인터뷰가 핵심 자산이다. 양보다 깊이가 중요하고, 잠재 고객의 의사결정자를 설득하는 근거를 쌓아야 한다. 폼 전환만 보지 말고, 계정 기반 측정으로 다단 접점을 추적한다.

위기 대응 사례에서 배운 것

코어 업데이트 이후 트래픽이 35% 하락한 리테일 사이트가 있었다. 상위 쿼리를 의도별로 분류하니 거래형에서 하락이 집중됐다. 제품 상세 페이지의 첫 화면이 리뷰와 추천 상품으로 채워져 있었고, 핵심 정보는 접혀 있었다. 이 구조를 바꾸고, 가격 변동 추적 그래프와 재고 상태를 상단에 배치했다. 또한 유사 제품 비교 테이블을 추가하고, 배송 리드타임을 지역별로 실시간 표기했다. 6주 후 거래형 쿼리의 평균 위치가 3.2칸 상승했고, 모바일 전환율이 18% 개선됐다.

또 다른 사례로 기술 블로그가 있었다. 토픽이 분산돼 내부 경쟁이 심했다. 200개가 넘는 글을 60개의 허브로 통합하고, 구식 글을 30% 넘게 아카이브 처리했다. 각 허브에 스키마와 목차, 관련 실험 데이터 링크를 추가했다. 3개월 뒤 사이트 전체의 크롤링 효율이 개선됐고, 상위 50개 허브에서 신규 외부 링크가 발생했다. 트래픽은 계단식으로 회복됐고, 다음 코어 업데이트 때 변동이 거의 없었다.

무엇이 변해도 변하지 않는 원칙

검색은 인간의 시간을 아끼기 위한 기술이다. 알고리즘은 그 목표에 더 가까워지려는 장치다. 요령과 꼼수는 잠깐 통할 수 있지만, 결국 사용자가 체감하는 가치가 남는다. 실무에서 통하는 원칙은 몇 가지로 압축된다. 질문을 정확히 파악하고, 그 질문에 필요한 만큼의 근거와 형식으로 답할 것. 사이트 전체의 질서를 유지할 것. 데이터를 보고 작게 자주 개선할 것. 신뢰를 쌓을 것. 링크와 인용은 그 결과로 따라오게 할 것.

업데이트의 역사는 이 원칙을 시험하는 과정이었다. 다음 변화가 와도 방향은 같다. 사용자가 더 빨리, 더 안전하게, 더 자신감 있게 결정을 내리도록 돕는 사이트가 이긴다. 검색엔진을 설득하려 하지 말고, 사용자를 설득하라. 검색엔진은 결국 그 신호를 읽는다.