Fish Shell:
একটি ওয়েবপেজ ডাউনলোড করা
কিভাবে:
এখানে ফিশ শেল ব্যবহার করে curl
কমান্ডের মাধ্যমে ওয়েব পেজ ডাউনলোড করার দ্রুত এবং সহজ উপায় দেওয়া হল:
curl -O http://example.com/
এই কমান্ডটি ওয়েবপেজের সামগ্রী আনে এবং সার্ভারে ফাইলের নামের অভ্যন্তরীণ নাম (বেশিরভাগ ক্ষেত্রে index.html
) দ্বারা তা সংরক্ষণ করে।
এখন, ধরুন আপনি এটিকে ভিন্ন নামে সংরক্ষণ করতে চান:
curl -o my_page.html http://example.com/
আপনি কি ডাউনলোড করছেন তা দেখতে চান? এখানে আপনার কনসোলে মুদ্রণ করার উপায়টি:
curl http://example.com/
নমুনা আউটপুট এরকম দেখাবে:
<!doctype html>
<html>
<head>
<title>Example Domain</title>
...
গভীরে যাওয়া
প্রাথমিক দিনগুলিতে, ওয়েব পেজ আনা আরও বেশি কমান্ড-লাইন ম্যাজিকের মতো ছিল। wget
এবং curl
এর মত টুলস প্রধান হয়ে ওঠে। curl
, ৯৭ সাল থেকে এসেছে, ইউআরএল সিনট্যাক্স ব্যবহার করে ডাটা বিলির জন্য সময়ের পরীক্ষায় টিকে আছে।
curl
এর উপর wget
কেন? curl
আরও বেশি ডেটা ট্রান্সফারের সুইস আর্মি নাইফ, বিভিন্ন প্রটোকল এবং ডেটা ফরম্যাটে ডিল করার সুবিধা দেয়। যদিও উভয়ই ওয়েব পেজ ডাউনলোড করতে পারে, curl
ডেটা আপলোড করতে পারে, এবং এটি আরও বেশি প্রটোকল সমর্থন করে এবং প্রায়শই অন্যান্য সফটওয়্যারের দ্বারা ব্যাক-এন্ড টুল হিসেবে ব্যবহৃত হয়।
ফিশ শেল নিজেই ওয়েব পেজ ডাউনলোড করে না; এটি শুধুমাত্র ইন্টারফেস। কিন্তু এটির সাথে curl
জুড়ে, আপনি একটি শক্তিশালী তবে সহজ ওয়েব-ফেচিং রিগ পেতে পারেন।
কিছু লোক জাভাস্ক্রিপ্ট-ভারী পৃষ্ঠাগুলির মতো আরও জটিল কাজের জন্য httpie
বা সেলেনিয়ামের মত ব্রাউজার-ভিত্তিক অটোমেশন সরঞ্জাম ব্যবহারের কথা উল্লেখ করতে পারেন। তবে দ্রুত এবং সহজে ডাউনলোডের জন্য, curl
এখনও দুর্গ ধরে রাখে।
আরও দেখুন
- আরও বিস্তারিত জানতে curl প্রকল্পের ওয়েবসাইট: https://curl.se/
curl
সাথে HTTP অপারেশন গভীরে যাওয়ার জন্য, ম্যান পেজ দেখুন:man curl
- ইউজার-ফ্রেন্ডলি HTTP ক্লায়েন্ট বিকল্প হিসেবে httpie: https://httpie.org/
- অন্যান্য শেল-সম্পর্কিত কাজ সম্পন্ন করার জন্য ফিশ শেল ডকুমেন্টেশন: https://fishshell.com/docs/current/index.html