如何使用Mechanize gem获取网站的所有链接?
如何使用ruby Mechanize gem获取网站的所有链接? Mechanize可以像Anemone gem那样做:
Anemone.crawl("https://www.google.com.vn/") do |anemone| anemone.on_every_page do |page| puts page.url end end
我是网络爬虫的新手。 提前致谢!
使用Mechanize非常简单,我建议您阅读文档。 你可以从Ruby BastardBook开始。
要从具有Mechanize的页面获取所有链接,请尝试以下操作:
require 'mechanize' agent = Mechanize.new page = agent.get("http://example.com") page.links.each {|link| puts "#{link.text} => #{link.href}"}
我认为代码很清楚。 page
是一个Mechanize :: Page对象,用于存储检索到的页面的全部内容。 Mechanize :: Page有links
方法。
机械化非常强大,但请记住,如果你想在没有与网站任何互动的情况下进行刮擦,请使用Nokogiri。 Mechanize使用Nokogiri来废弃网页,因此只能使用Nokogiri进行刮擦。