참조: http://bmwieczorek.wordpress.com/2008/10/01/wget-recursively-download-all-files-from-certain-directory-listed-by-apache/HFS는 주로 다운로드를 위해 파일을 공유 하기 위한 작은 HTTP 파일 서버입니다. 공식 문서에서는 HFS를 다음과 같이 설명 하 고 (파일을 다운로드 하려는 위치에서) 페이지를 이동 하 고 해당 북마크 릿을 클릭 합니다. 웹 사이트의 다른 메트릭과 함께 파일 다운로드를 추적 하 고 싶을 것입니다. 구글 분석과 같은 자바 스크립트 기반 솔루션은 매우 인기가 있지만, 기본적으로 파일 다운로드를 표시 하지 않습니다. 이는 파일을 다운로드 하면 Javascript가 실행 되지 않기 때문입니다. “다운로드 마스터” 디렉토리에서 다운로드에 대 한 좋은 작품 구글 크롬에 대 한 확장입니다. 다운로드할 파일 유형을 필터링 하거나 전체 디렉토리를 다운로드 하도록 선택할 수 있습니다. 재귀 검색을 사용 하도록 설정 합니다. 자세한 내용은 재귀 다운로드를 참조 하십시오.
기본 최대 깊이는 5입니다. … 다운로드 … #Invoke-웹 요청-Uri $Dlink 메서드 포스트 아웃 파일 $output # $WebClient $WebClient. 웹 클라이언트 $Dlink = 새로운 오브젝트를 위한 것입니다.-새 객체를 제공 하 고 있습니다. 관리. 자동화. $UserName, $Password, 파일 이름 $Invoke-OutFile-패스 스루 “C:DownloadsFile1″-자격 증명 $Credentials $Credentials = 새 개체 이를 통해 시스템 관리를 자동화 합니다. $Username, $Password 파일 이름 $Invoke-OutFile-경유 “C:pursfile2″-자격 증명 $Credentials $filename = ” ($Filename 파일 1) $ (가져오기 날짜-uformat%) File2 “복사 항목 경로 c:downloads *를 $WebClient”을 (를) 제공 합니다 (날짜–형식% v)를 지정 합니다. csv 대상 ” 다운로드 테스트” $WebClient 제거 항목 C:emies *. 나는 방법에 대 한 몇 가지 도움이 필요 웹 사이트에서 매일 같은 데이터베이스를 복원 합니다.
“Http://ir.eia.gov/wpsr/psw01.xls?api_key=70a7a191d22a1a5ccf689dc939ab3145″를 호출 하면 호스팅 제공 업체에서 이러한 세부 정보를 얻을 수 있습니다 “라고 설명 합니다. * * * * * * * * * * * * * * * * * 웹 요청을 호스트 공급자에서 이러한 자세한 내용을 확인 해야 합니다. wget은 일반적으로이 방법으로 작동, 하지만 일부 사이트는 문제가 있을 수 있습니다 그리고 그것은 너무 많은 불필요 한 html 파일을 만들 수 있습니다. 이 작업을 쉽게 수행 하 고 불필요 한 파일 생성을 방지 하기 위해 필자는 필자가 직접 작성 한 첫 번째 linux 스크립트 인 getwebfolder 스크립트를 공유 합니다. 이 스크립트는 매개 변수로 입력 된 웹 폴더의 모든 콘텐츠를 다운로드 합니다. FTP를 통해 파일을 다운로드 하는 작업은 HTTP와 유사 합니다. 보안이 중요 한 경우에도이 프로토콜을 사용 하지 않아야 합니다.