구글 광고 & SEO 인사이트, 지금 확인해보세요

구글 서치 콘솔 API, ‘시간별 데이터’ 지원… 최대 10일치 분석 가능

구글이 2025년 4월 9일 서치 콘솔 API에서 최대 10일간의 ‘시간별’ 검색 실적 데이터를 제공하기 시작했습니다. Search Central Live Madrid에서 발표된 이번 업데이트로, 마케터와 개발자들은 분초를 다투는 콘텐츠의 초기 반응을 정밀하게 추적하고, 시간대별 사용자 행동 패턴을 분석하여 훨씬 더 신속하고 정교한 SEO 전략을 수립할 수 있게 되었습니다. 몇 달 전, 구글은 서치 콘솔 웹사이트에 최근 24시간의

구글, robots.txt 표준의 미래 발전 방향 제시… “합의를 통해 새 규칙 추가 가능”

구글 Gary Illyes가 robots.txt를 포함한 크롤링 제어 규칙(REP)이 공개 표준으로서 게시자와 크롤러 운영자의 합의를 통해 발전할 수 있다고 설명했습니다. 다만 구글은 널리 지원되는 표준인 만큼 변경이 “쉽지 않아야 하고, 실제로 쉽지 않다”고도 강조했습니다. 지난 몇 주간 robots.txt와 로봇 메타 태그의 사용법을 설명해온 구글의 ‘Robots Refresher’ 시리즈가 2025년 3월 28일 ‘미래’에 대한 글로 마무리되었습니다. 이번 발표는

robots.txt 다음 단계는? 구글, ‘페이지 단위’ 검색 노출 제어법 공개

구글이 robots.txt에 이어, 특정 페이지만 검색 결과에서 제외하거나 미리보기를 막는 ‘페이지 단위 제어’ 방법을 상세히 공개했습니다. 이를 통해 마케터들은 웹사이트 전체가 아닌 개별 페이지의 검색 노출 여부와 방식을 정밀하게 관리하며 한 차원 높은 SEO 전략을 구사할 수 있게 됐습니다. robots.txt가 크롤러의 ‘출입’을 통제하는 규칙이라면, 많은 마케터들은 “크롤러의 방문은 허용하되, 이 페이지만큼은 검색 결과에 노출하고 싶지

“AI 봇은 막고, 구글봇은 허용”… 구글, robots.txt 맞춤 설정 가이드 제시

구글이 robots.txt를 활용해 특정 AI 크롤러는 차단하고 검색엔진 봇은 허용하는 구체적인 방법을 공개했습니다. 이제 웹사이트 운영자들은 보다 정교한 설정을 통해 콘텐츠 자산을 보호하는 동시에 검색엔진 최적화(SEO)를 유지할 수 있는 명확한 가이드를 얻게 되었습니다. 지난번 robots.txt의 중요성을 강조한 데 이어, 구글이 실질적인 활용법을 담은 후속 가이드를 발표했습니다. 많은 웹사이트 운영자들이 원치 않는 AI 크롤러를 막고 싶어

구글, “30년 역사의 크롤링 제어 기술을 다시 살펴봅니다”

구글 John Mueller가 robots.txt와 로봇 메타 태그에 대한 새로운 교육 시리즈 “Robots Refresher”를 2025년 2월 24일 시작했습니다. 이번 시리즈는 지난 12월 크롤링 시리즈에 이어 진행되는 “가벼운 복습(light refresher)”으로, 웹사이트 소유자들이 크롤링 제어 기능을 이해하는 데 도움을 주기 위한 것입니다. robots.txt는 웹사이트 서버에 저장되는 텍스트 파일로, 크롤러가 사이트의 어떤 부분에 접근할 수 있는지를 지시합니다. 구글이 이번

구글 모바일 검색 결과, URL 표시 간소화: 마케터가 알아야 할 변화

구글이 모바일 검색 결과에 표시되는 URL 방식을 전면 개편합니다. 이는 사용자 경험을 극대화하기 위한 조치로, 모바일 검색 환경 및 잠재적인 클릭률에 미묘한 영향을 미칠 수 있습니다. 기존에는 모바일에서도 데스크톱과 유사하게 도메인과 함께 ‘사이트 계층 구조’의 일환인 탐색경로(Breadcrumbs)가 URL에 표시되었습니다. 그러나 작은 화면에서는 탐색경로가 종종 잘려 보이거나, 사용자에게 실질적인 유용성을 제공하지 못한다는 지적이 있었습니다. 이러한 배경

위로 스크롤