http://mySPSite.comという SharePoint サイトがあります。通常、クライアント側で画像、CSS、JavaScript ファイルとともに 12 秒で完全にダウンロードされます。ブラウザーとまったく同じ方法で、すべてのページのダウンロードをシミュレートするように、PowerShell を使用して完全な要求を監視したいと考えています。
これを達成するための適切な方法は何でしょうか?
http://mySPSite.comという SharePoint サイトがあります。通常、クライアント側で画像、CSS、JavaScript ファイルとともに 12 秒で完全にダウンロードされます。ブラウザーとまったく同じ方法で、すべてのページのダウンロードをシミュレートするように、PowerShell を使用して完全な要求を監視したいと考えています。
これを達成するための適切な方法は何でしょうか?
これを使用できると思います:
http://www.howtogeek.com/124736/stupid-geek-tricks-extract-links-off-any-webpage-using-powershell/
Web サイトのすべてのリンクと画像にアクセスし、それらを使用して配列を作成します。次に、次のスクリプトを使用してループでダウンロードします。
$url = "http://website.com/downloads/Iwantthisfile.txt"
$path = "C:\temp\thisisthefile.txt"
# param([string]$url, [string]$path)
if(!(Split-Path -parent $path) -or !(Test-Path -pathType Container (Split-Path -parent $path))) {
$path = Join-Path $pwd (Split-Path -leaf $path)
}
"Downloading [$url]`nSaving at [$path]"
$client = new-object System.Net.WebClient
$client.DownloadFile($url, $path)
#$client.DownloadData($url, $path)
$path