Bir önceki duyuruya arkadaş bir GitHub sayfası bırakmış, o işinizi görür gibi gözüküyor. Crawlbase'e baktım, 1000 request için 1.25$ gibi bir masraf var. Goodreads de gördüğüm kadarıyla her sayfada 30 yorum gösteriyor. Yani istediğiniz kitaptaki toplam yorum sayısını 30'a bölerseniz kabaca kaç request gerekeceğini bulursunuz (Tabi normalde gerçek request sayısı tekrar eden requestler vb. biraz daha fazla olur muhtemelen)
ChatGPT ya da Deepseek kullanarak GitHub'taki scraper'ı kullanacak basit bir Python kodu yazabilirsiniz.
Zaten kullanımı da basit, istediğiniz kitabın review sayfasının linkini aşağıdakiyle değiştirip sonrasında kodunuzun içinden aşağıdaki fonksiyonları çağırıyorsunuz, goodreads_reviews.json dosyasına revieweri kaydediyor. Tabi çalışması için önce Crawlbase hesabı açmanız ve oradan aldığınız API Token'ı da koda yerleştirmeniz lazım. Sanırım Crawlspace 1000 request ücretsiz veriyor yani çalışıp çalışmadığını da deneyebilirsiniz.
book_reviews = scrape_goodreads_reviews_with_pagination('
www.goodreads.com')
save_reviews_to_json(book_reviews)