도메인 및 IP 인텔리전스를 위한 Who.is 스크래핑 방법

Who.is를 스크래핑하여 도메인 소유권 상세 정보, 등록일 및 연락처 정보를 추출하는 방법을 알아보세요. 가치 있는 B2B 리드와 사이버 보안 인텔리전스를 확보하는 법을 소개합니다.

Who.is favicon
who.is보통
커버리지:Global
사용 가능한 데이터6 필드
제목위치판매자 정보연락처 정보게시 날짜속성
모든 추출 가능한 필드
도메인 이름등록 대행자(Registrar) 이름등록일만료일업데이트 날짜도메인 상태네임 서버IP 주소등록인 조직등록인 도시등록인 주/도등록인 국가관리자 이메일기술 담당자 전화번호원시 WHOIS 데이터
기술 요구사항
JavaScript 필요
로그인 불필요
페이지네이션 없음
공식 API 없음
봇 방지 보호 감지됨
CloudflareRate LimitingIP BlockingreCAPTCHA

봇 방지 보호 감지됨

Cloudflare
엔터프라이즈급 WAF 및 봇 관리. JavaScript 챌린지, CAPTCHA, 행동 분석 사용. 스텔스 설정의 브라우저 자동화 필요.
속도 제한
시간당 IP/세션별 요청 제한. 회전 프록시, 요청 지연, 분산 스크래핑으로 우회 가능.
IP 차단
알려진 데이터센터 IP와 표시된 주소 차단. 효과적인 우회를 위해 주거용 또는 모바일 프록시 필요.
Google reCAPTCHA
Google의 CAPTCHA 시스템. v2는 사용자 상호작용 필요, v3는 위험 점수로 조용히 실행. CAPTCHA 서비스로 해결 가능.

Who.is 정보

Who.is이 제공하는 것과 추출할 수 있는 가치 있는 데이터를 알아보세요.

포괄적인 도메인 조회 서비스

Who.is는 도메인 이름과 IP 주소에 대한 공개 등록 정보를 검색하기 위해 WHOIS 및 RDAP 조회를 수행하는 최고의 웹 기반 도구입니다. 전 세계 도메인 등록 기관 및 레지스트리에서 유지 관리하는 기록에 접근할 수 있는 중앙 허브 역할을 하며, 등록일, 만료 일정 및 네임서버 구성에 대한 중요한 인사이트를 제공합니다. 이 플랫폼은 네트워크 인프라를 조사하고 인터넷 리소스 뒤에 있는 주체를 식별하기 위해 IT 전문가와 연구원들이 널리 사용합니다.

풍부한 데이터 저장소

이 웹사이트는 도메인과 관련된 관리, 기술 및 등록인 연락처에 관한 구조화된 데이터와 비구조화된 데이터를 표시합니다. 현재는 GDPR 및 기타 프라이버시 프로토콜을 준수하기 위해 많은 개인 연락처 데이터가 편집(redacted)되어 있지만, 여전히 등록 대행자 이름, 도메인 상태 및 다양한 DNS 레코드와 같은 필수 정보를 제공합니다. 또한 IP 주소 추적 및 웹사이트 업타임 모니터링 도구를 제공하여 웹 인텔리전스를 위한 종합적인 리소스로 활용됩니다.

WHOIS 스크래핑의 비즈니스 가치

Who.is 데이터를 스크래핑하는 것은 사이버 보안 연구원, 경쟁 인텔리전스 분석가 및 마케팅 전문가에게 매우 가치가 있습니다. 이를 통해 신규 등록된 비즈니스를 식별하고, 도메인 포트폴리오의 이동을 추적하며, 잠재적 위협 행위자가 사용하는 인프라를 조사할 수 있습니다. 이러한 데이터 추출을 자동화함으로써 조직은 시장 트렌드보다 앞서 나가고 브랜드 자산을 보호하며 고품질 B2B 리드를 효율적으로 생성할 수 있습니다.

Who.is 정보

왜 Who.is을 스크래핑해야 하나요?

Who.is에서 데이터 추출의 비즈니스 가치와 사용 사례를 알아보세요.

신규 등록된 도메인 소유자를 식별하여 B2B 리드 생성

사이버 보안 위협 인텔리전스 및 도메인 인프라 매핑

인수 기회를 잡기 위한 도메인 만료일 모니터링

지식 재산권 집행 및 상표권 침해자 식별

특정 분야의 도메인 등록 트렌드 추적 및 시장 조사

스크래핑 과제

Who.is 스크래핑 시 겪을 수 있는 기술적 과제.

강력한 Cloudflare 봇 보호 및 브라우저 챌린지

IP 주소당 허용되는 조회 수에 대한 엄격한 rate limits

GDPR 및 WHOIS 프라이버시 서비스로 인한 광범위한 데이터 편집(redaction)

렌더링이 필요한 특정 조회 결과의 동적 콘텐츠 로딩

비구조화된 원시 WHOIS 텍스트 블록에 대한 복잡한 파싱 요구 사항

AI로 Who.is 스크래핑

코딩 불필요. AI 기반 자동화로 몇 분 만에 데이터 추출.

작동 방식

1

필요한 것을 설명하세요

Who.is에서 어떤 데이터를 추출하고 싶은지 AI에게 알려주세요. 자연어로 입력하기만 하면 됩니다 — 코딩이나 셀렉터가 필요 없습니다.

2

AI가 데이터를 추출

인공지능이 Who.is을 탐색하고, 동적 콘텐츠를 처리하며, 요청한 것을 정확히 추출합니다.

3

데이터 받기

CSV, JSON으로 내보내거나 앱과 워크플로에 직접 전송할 수 있는 깨끗하고 구조화된 데이터를 받으세요.

스크래핑에 AI를 사용하는 이유

스크립트 없이 몇 분 만에 Who.is 스크래퍼를 구축할 수 있는 노코드 인터페이스
Cloudflare 챌린지 및 JavaScript 렌더링 장애물을 자동으로 처리
클라우드 실행으로 로컬 IP 차단 및 rate limiting 문제를 완전히 회피
도메인 상태 변경을 지속적으로 모니터링하기 위한 내장 스케줄링 기능
리드 관리를 위해 Google Sheets 또는 CRM으로 데이터 심리스(seamless)하게 내보내기
신용카드 불필요무료 플랜 이용 가능설정 불필요

AI를 사용하면 코드를 작성하지 않고도 Who.is을 쉽게 스크래핑할 수 있습니다. 인공지능 기반 플랫폼이 원하는 데이터를 이해합니다 — 자연어로 설명하기만 하면 AI가 자동으로 추출합니다.

How to scrape with AI:
  1. 필요한 것을 설명하세요: Who.is에서 어떤 데이터를 추출하고 싶은지 AI에게 알려주세요. 자연어로 입력하기만 하면 됩니다 — 코딩이나 셀렉터가 필요 없습니다.
  2. AI가 데이터를 추출: 인공지능이 Who.is을 탐색하고, 동적 콘텐츠를 처리하며, 요청한 것을 정확히 추출합니다.
  3. 데이터 받기: CSV, JSON으로 내보내거나 앱과 워크플로에 직접 전송할 수 있는 깨끗하고 구조화된 데이터를 받으세요.
Why use AI for scraping:
  • 스크립트 없이 몇 분 만에 Who.is 스크래퍼를 구축할 수 있는 노코드 인터페이스
  • Cloudflare 챌린지 및 JavaScript 렌더링 장애물을 자동으로 처리
  • 클라우드 실행으로 로컬 IP 차단 및 rate limiting 문제를 완전히 회피
  • 도메인 상태 변경을 지속적으로 모니터링하기 위한 내장 스케줄링 기능
  • 리드 관리를 위해 Google Sheets 또는 CRM으로 데이터 심리스(seamless)하게 내보내기

Who.is을 위한 노코드 웹 스크래퍼

AI 기반 스크래핑의 포인트 앤 클릭 대안

Browse.ai, Octoparse, Axiom, ParseHub와 같은 여러 노코드 도구를 사용하면 코드 작성 없이 Who.is을 스크래핑할 수 있습니다. 이러한 도구는 일반적으로 시각적 인터페이스를 사용하여 데이터를 선택하지만, 복잡한 동적 콘텐츠나 봇 방지 조치에서는 어려움을 겪을 수 있습니다.

노코드 도구의 일반적인 워크플로

1
브라우저 확장 프로그램 설치 또는 플랫폼 가입
2
대상 웹사이트로 이동하여 도구 열기
3
포인트 앤 클릭으로 추출할 데이터 요소 선택
4
각 데이터 필드에 대한 CSS 셀렉터 구성
5
여러 페이지 스크래핑을 위한 페이지네이션 규칙 설정
6
CAPTCHA 처리 (주로 수동 해결 필요)
7
자동 실행을 위한 스케줄링 구성
8
데이터를 CSV, JSON으로 내보내기 또는 API로 연결

일반적인 문제점

학습 곡선

셀렉터와 추출 로직을 이해하는 데 시간이 걸림

셀렉터 깨짐

웹사이트 변경으로 전체 워크플로우가 깨질 수 있음

동적 콘텐츠 문제

JavaScript가 많은 사이트는 복잡한 해결 방법 필요

CAPTCHA 제한

대부분의 도구는 CAPTCHA에 수동 개입 필요

IP 차단

공격적인 스크래핑은 IP 차단으로 이어질 수 있음

Who.is을 위한 노코드 웹 스크래퍼

Browse.ai, Octoparse, Axiom, ParseHub와 같은 여러 노코드 도구를 사용하면 코드 작성 없이 Who.is을 스크래핑할 수 있습니다. 이러한 도구는 일반적으로 시각적 인터페이스를 사용하여 데이터를 선택하지만, 복잡한 동적 콘텐츠나 봇 방지 조치에서는 어려움을 겪을 수 있습니다.

노코드 도구의 일반적인 워크플로
  1. 브라우저 확장 프로그램 설치 또는 플랫폼 가입
  2. 대상 웹사이트로 이동하여 도구 열기
  3. 포인트 앤 클릭으로 추출할 데이터 요소 선택
  4. 각 데이터 필드에 대한 CSS 셀렉터 구성
  5. 여러 페이지 스크래핑을 위한 페이지네이션 규칙 설정
  6. CAPTCHA 처리 (주로 수동 해결 필요)
  7. 자동 실행을 위한 스케줄링 구성
  8. 데이터를 CSV, JSON으로 내보내기 또는 API로 연결
일반적인 문제점
  • 학습 곡선: 셀렉터와 추출 로직을 이해하는 데 시간이 걸림
  • 셀렉터 깨짐: 웹사이트 변경으로 전체 워크플로우가 깨질 수 있음
  • 동적 콘텐츠 문제: JavaScript가 많은 사이트는 복잡한 해결 방법 필요
  • CAPTCHA 제한: 대부분의 도구는 CAPTCHA에 수동 개입 필요
  • IP 차단: 공격적인 스크래핑은 IP 차단으로 이어질 수 있음

코드 예제

import requests
from bs4 import BeautifulSoup

# Who.is는 Cloudflare를 사용하므로 고품질 헤더가 매우 중요함
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36',
    'Accept-Language': 'ko-KR,ko;q=0.9,en-US;q=0.8,en;q=0.7'
}
url = 'https://who.is/whois/example.com'

try:
    response = requests.get(url, headers=headers)
    response.raise_for_status()
    soup = BeautifulSoup(response.text, 'html.parser')
    
    # WHOIS 데이터는 일반적으로 pre 태그 또는 특정 div 클래스 내부에 있음
    whois_block = soup.find('pre')
    if whois_block:
        print(f'WHOIS 데이터: {whois_block.get_text().strip()}')
    else:
        print('데이터 블록을 찾을 수 없거나 안티봇에 의해 차단되었습니다.')
except requests.exceptions.RequestException as e:
    print(f'요청 실패: {e}')

사용 시기

JavaScript가 최소한인 정적 HTML 페이지에 가장 적합합니다. 블로그, 뉴스 사이트, 단순 이커머스 제품 페이지에 이상적입니다.

장점

  • 가장 빠른 실행 속도 (브라우저 오버헤드 없음)
  • 최소한의 리소스 소비
  • asyncio로 쉽게 병렬화 가능
  • API와 정적 페이지에 적합

제한 사항

  • JavaScript 실행 불가
  • SPA 및 동적 콘텐츠에서 실패
  • 복잡한 봇 방지 시스템에 어려움

코드로 Who.is 스크래핑하는 방법

Python + Requests
import requests
from bs4 import BeautifulSoup

# Who.is는 Cloudflare를 사용하므로 고품질 헤더가 매우 중요함
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36',
    'Accept-Language': 'ko-KR,ko;q=0.9,en-US;q=0.8,en;q=0.7'
}
url = 'https://who.is/whois/example.com'

try:
    response = requests.get(url, headers=headers)
    response.raise_for_status()
    soup = BeautifulSoup(response.text, 'html.parser')
    
    # WHOIS 데이터는 일반적으로 pre 태그 또는 특정 div 클래스 내부에 있음
    whois_block = soup.find('pre')
    if whois_block:
        print(f'WHOIS 데이터: {whois_block.get_text().strip()}')
    else:
        print('데이터 블록을 찾을 수 없거나 안티봇에 의해 차단되었습니다.')
except requests.exceptions.RequestException as e:
    print(f'요청 실패: {e}')
Python + Playwright
from playwright.sync_api import sync_playwright

def scrape_whois(domain):
    with sync_playwright() as p:
        # 가능하면 stealth 플러그인과 함께 headless 모드 사용
        browser = p.chromium.launch(headless=True)
        context = browser.new_context(user_agent='Mozilla/5.0 (Windows NT 10.0; Win64; x64) Chrome/110.0.0.0 Safari/537.36')
        page = context.new_page()
        
        # 조회 페이지로 이동
        page.goto(f'https://who.is/whois/{domain}')
        
        # 결과 컨테이너가 렌더링될 때까지 대기
        page.wait_for_selector('.query-results', timeout=10000)
        
        # 결과의 내부 텍스트 추출
        results = page.inner_text('.query-results')
        print(f'{domain}에 대한 결과:
{results}')
        
        browser.close()

scrape_whois('google.com')
Python + Scrapy
import scrapy

class WhoisSpider(scrapy.Spider):
    name = 'whois_spider'
    
    def start_requests(self):
        # 조회할 도메인
        domains = ['example.com', 'test.org']
        for domain in domains:
            yield scrapy.Request(
                url=f'https://who.is/whois/{domain}',
                callback=self.parse,
                meta={'proxy': 'http://your-residential-proxy:port'}
            )

    def parse(self, response):
        # 도메인 이름 및 원본 WHOIS 텍스트 추출
        yield {
            'domain': response.css('h1::text').get(),
            'raw_data': response.css('.query-results pre::text').get(),
            'registrar': response.xpath("//div[contains(text(), 'Registrar')]/following-sibling::div/text()").get()
        }
Node.js + Puppeteer
const puppeteer = require('puppeteer');

(async () => {
  const browser = await puppeteer.launch({ headless: true });
  const page = await browser.newPage();
  
  // 실제 유저 에이전트 설정
  await page.setUserAgent('Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/110.0.0.0 Safari/537.36');

  await page.goto('https://who.is/whois/example.com');

  // WHOIS 데이터가 포함된 주요 사전 형식 텍스트 블록 대기
  try {
    await page.waitForSelector('pre', { timeout: 5000 });
    
    const whoisData = await page.evaluate(() => {
      const pre = document.querySelector('pre');
      return pre ? pre.innerText : '데이터를 찾을 수 없음';
    });

    console.log(whoisData);
  } catch (err) {
    console.log('타임아웃 또는 차단 감지:', err.message);
  }

  await browser.close();
})();

Who.is 데이터로 할 수 있는 것

Who.is 데이터의 실용적인 응용 프로그램과 인사이트를 탐색하세요.

B2B 영업 아웃리치

영업 팀은 신규 등록된 도메인 뒤에 있는 의사 결정권자를 식별하여 웹 디자인이나 호스팅과 같은 서비스를 제안할 수 있습니다.

구현 방법:

  1. 1신규 도메인 등록의 일일 목록을 모니터링합니다.
  2. 2Who.is에서 등록인 이름과 조직 상세 정보를 추출합니다.
  3. 3도메인 이름에 포함된 산업 관련 키워드로 리드를 필터링합니다.
  4. 4구매 의도가 높은 연락처를 자동화된 이메일 마케팅 플랫폼으로 가져옵니다.

Automatio를 사용하여 Who.is에서 데이터를 추출하고 코드 작성 없이 이러한 애플리케이션을 구축하세요.

Who.is 데이터로 할 수 있는 것

  • B2B 영업 아웃리치

    영업 팀은 신규 등록된 도메인 뒤에 있는 의사 결정권자를 식별하여 웹 디자인이나 호스팅과 같은 서비스를 제안할 수 있습니다.

    1. 신규 도메인 등록의 일일 목록을 모니터링합니다.
    2. Who.is에서 등록인 이름과 조직 상세 정보를 추출합니다.
    3. 도메인 이름에 포함된 산업 관련 키워드로 리드를 필터링합니다.
    4. 구매 의도가 높은 연락처를 자동화된 이메일 마케팅 플랫폼으로 가져옵니다.
  • 사이버 보안 위협 매핑

    보안 분석가는 WHOIS 데이터를 사용하여 악의적인 행위자나 피싱 캠페인에서 사용하는 인프라를 매핑합니다.

    1. 알려진 악성 도메인을 스크래퍼에 입력합니다.
    2. 연결된 네임서버 및 등록인 조직 ID를 추출합니다.
    3. 동일한 인프라 식별자를 공유하는 다른 도메인을 검색합니다.
    4. 식별된 네트워크 범위를 기업 보안 방화벽에서 차단합니다.
  • 도메인 인수 모니터링

    투자자는 만료 날짜와 상태 변화를 모니터링하여 구매하고자 하는 도메인을 추적할 수 있습니다.

    1. 인수를 목표로 하는 고가치 도메인 목록을 작성합니다.
    2. 'Expires' 날짜와 'Domain Status'를 확인하기 위해 일일 스크래핑을 예약합니다.
    3. 도메인이 'Redemption Period(상환 기간)'에 진입하면 자동 알림을 설정합니다.
    4. 도메인이 시장에 출시되는 즉시 전문적인 예약 주문(backorder)을 진행합니다.
  • 브랜드 보호 분석

    기업은 고객을 보호하기 위해 자사의 상표를 사용하는 타이포스쿼팅이나 사기 웹사이트를 모니터링할 수 있습니다.

    1. 브랜드 이름의 변형 및 일반적인 오타에 대해 자동화된 검색을 수행합니다.
    2. 의심스러운 일치 도메인에 대한 등록인 및 등록 대행자 정보를 추출합니다.
    3. 네임서버를 분석하여 사기 사이트의 호스팅 제공업체를 파악합니다.
    4. 식별된 등록 대행자 및 호스팅 회사에 법적 삭제 요청을 제출합니다.
단순한 프롬프트 이상

워크플로를 강화하세요 AI 자동화

Automatio는 AI 에이전트, 웹 자동화 및 스마트 통합의 힘을 결합하여 더 짧은 시간에 더 많은 것을 달성할 수 있도록 도와줍니다.

AI 에이전트
웹 자동화
스마트 워크플로

Who.is 스크래핑 프로 팁

Who.is에서 성공적으로 데이터를 추출하기 위한 전문가 조언.

Cloudflare의 IP 기반 차단 및 rate limits를 우회하기 위해 고품질 주거용 프록시를 순환(rotate)시키며 사용하세요.

결과의 동적 렌더링 및 JS 챌린지를 처리하려면 Playwright나 Puppeteer 같은 헤드리스 브라우저를 활용하세요.

자연스러운 인간의 브라우징 동작을 시뮬레이션하기 위해 조회 사이에 무작위 대기 시간(jitter)을 도입하세요.

사용 편의성을 높이기 위해 정규표현식(regex)을 사용하여 원시 텍스트 블록을 구조화된 JSON 데이터로 파싱하세요.

특히 'Expires' 필드를 모니터링하여 가치가 높은 도메인이 상환 기간(redemption phase)에 진입할 때 알림이 발생하도록 설정하세요.

WHOIS 정보가 가려져 있는 경우 RDAP 섹션을 확인하세요. 때때로 더 구조화된 연결 데이터를 제공하기도 합니다.

후기

사용자 후기

워크플로를 혁신한 수천 명의 만족한 사용자와 함께하세요

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

Jonathan Kogan

Jonathan Kogan

Co-Founder/CEO, rpatools.io

Automatio is one of the most used for RPA Tools both internally and externally. It saves us countless hours of work and we realized this could do the same for other startups and so we choose Automatio for most of our automation needs.

Mohammed Ibrahim

Mohammed Ibrahim

CEO, qannas.pro

I have used many tools over the past 5 years, Automatio is the Jack of All trades.. !! it could be your scraping bot in the morning and then it becomes your VA by the noon and in the evening it does your automations.. its amazing!

Ben Bressington

Ben Bressington

CTO, AiChatSolutions

Automatio is fantastic and simple to use to extract data from any website. This allowed me to replace a developer and do tasks myself as they only take a few minutes to setup and forget about it. Automatio is a game changer!

Sarah Chen

Sarah Chen

Head of Growth, ScaleUp Labs

We've tried dozens of automation tools, but Automatio stands out for its flexibility and ease of use. Our team productivity increased by 40% within the first month of adoption.

David Park

David Park

Founder, DataDriven.io

The AI-powered features in Automatio are incredible. It understands context and adapts to changes in websites automatically. No more broken scrapers!

Emily Rodriguez

Emily Rodriguez

Marketing Director, GrowthMetrics

Automatio transformed our lead generation process. What used to take our team days now happens automatically in minutes. The ROI is incredible.

관련 Web Scraping

Who.is에 대한 자주 묻는 질문

Who.is에 대한 일반적인 질문에 대한 답변 찾기