একটি ওয়েবপেজ ডাউনলোড করা

Fish Shell:
একটি ওয়েবপেজ ডাউনলোড করা

কিভাবে:

এখানে ফিশ শেল ব্যবহার করে curl কমান্ডের মাধ্যমে ওয়েব পেজ ডাউনলোড করার দ্রুত এবং সহজ উপায় দেওয়া হল:

curl -O http://example.com/

এই কমান্ডটি ওয়েবপেজের সামগ্রী আনে এবং সার্ভারে ফাইলের নামের অভ্যন্তরীণ নাম (বেশিরভাগ ক্ষেত্রে index.html) দ্বারা তা সংরক্ষণ করে।

এখন, ধরুন আপনি এটিকে ভিন্ন নামে সংরক্ষণ করতে চান:

curl -o my_page.html http://example.com/

আপনি কি ডাউনলোড করছেন তা দেখতে চান? এখানে আপনার কনসোলে মুদ্রণ করার উপায়টি:

curl http://example.com/

নমুনা আউটপুট এরকম দেখাবে:

<!doctype html>
<html>
<head>
    <title>Example Domain</title>
...

গভীরে যাওয়া

প্রাথমিক দিনগুলিতে, ওয়েব পেজ আনা আরও বেশি কমান্ড-লাইন ম্যাজিকের মতো ছিল। wget এবং curl এর মত টুলস প্রধান হয়ে ওঠে। curl, ৯৭ সাল থেকে এসেছে, ইউআরএল সিনট্যাক্স ব্যবহার করে ডাটা বিলির জন্য সময়ের পরীক্ষায় টিকে আছে।

curl এর উপর wget কেন? curl আরও বেশি ডেটা ট্রান্সফারের সুইস আর্মি নাইফ, বিভিন্ন প্রটোকল এবং ডেটা ফরম্যাটে ডিল করার সুবিধা দেয়। যদিও উভয়ই ওয়েব পেজ ডাউনলোড করতে পারে, curl ডেটা আপলোড করতে পারে, এবং এটি আরও বেশি প্রটোকল সমর্থন করে এবং প্রায়শই অন্যান্য সফটওয়্যারের দ্বারা ব্যাক-এন্ড টুল হিসেবে ব্যবহৃত হয়।

ফিশ শেল নিজেই ওয়েব পেজ ডাউনলোড করে না; এটি শুধুমাত্র ইন্টারফেস। কিন্তু এটির সাথে curl জুড়ে, আপনি একটি শক্তিশালী তবে সহজ ওয়েব-ফেচিং রিগ পেতে পারেন।

কিছু লোক জাভাস্ক্রিপ্ট-ভারী পৃষ্ঠাগুলির মতো আরও জটিল কাজের জন্য httpie বা সেলেনিয়ামের মত ব্রাউজার-ভিত্তিক অটোমেশন সরঞ্জাম ব্যবহারের কথা উল্লেখ করতে পারেন। তবে দ্রুত এবং সহজে ডাউনলোডের জন্য, curl এখনও দুর্গ ধরে রাখে।

আরও দেখুন

  • আরও বিস্তারিত জানতে curl প্রকল্পের ওয়েবসাইট: https://curl.se/
  • curl সাথে HTTP অপারেশন গভীরে যাওয়ার জন্য, ম্যান পেজ দেখুন: man curl
  • ইউজার-ফ্রেন্ডলি HTTP ক্লায়েন্ট বিকল্প হিসেবে httpie: https://httpie.org/
  • অন্যান্য শেল-সম্পর্কিত কাজ সম্পন্ন করার জন্য ফিশ শেল ডকুমেন্টেশন: https://fishshell.com/docs/current/index.html