ফুলের ডেটাসেটটি বাফার প্রিফেচ, শাফেল পদ্ধতি এবং ক্যাশে পদ্ধতির সাহায্যে পারফরম্যান্সের জন্য কনফিগার করা যেতে পারে। I/O ব্লক না করেই ডিস্ক থেকে ডেটা নেওয়া যায় তা নিশ্চিত করতে বাফার করা প্রিফেচিং ব্যবহার করা যেতে পারে। Dataset.cache() ছবিগুলিকে প্রথম যুগে ডিস্ক থেকে লোড করার পরে মেমরিতে রাখে। Dataset.prefetch() প্রশিক্ষণের সময় ডেটা প্রিপ্রসেসিং এবং মডেল এক্সিকিউশন ওভারল্যাপ করবে।
আরো পড়ুন: টেনসরফ্লো কী এবং নিউরাল নেটওয়ার্ক তৈরি করতে টেনসরফ্লো-এর সাথে কেরাস কীভাবে কাজ করে?
কেরাস সিকোয়েন্সিয়াল এপিআই ব্যবহার করা হয়, যা একটি অনুক্রমিক মডেল তৈরি করতে সহায়ক যা স্তরগুলির একটি প্লেইন স্ট্যাকের সাথে কাজ করতে ব্যবহৃত হয়, যেখানে প্রতিটি স্তরে একটি ইনপুট টেনসর এবং একটি আউটপুট টেনসর রয়েছে৷
নিচের কোডটি চালানোর জন্য আমরা Google Colaboratory ব্যবহার করছি। Google Colab বা Colaboratory ব্রাউজারে Python কোড চালাতে সাহায্য করে এবং এর জন্য শূন্য কনফিগারেশন এবং GPUs (গ্রাফিক্যাল প্রসেসিং ইউনিট) তে বিনামূল্যে অ্যাক্সেস প্রয়োজন। জুপিটার নোটবুকের উপরে কোলাবোরেটরি তৈরি করা হয়েছে।
print("Configuring the dataset for better performance") AUTOTUNE = tf.data.AUTOTUNE train_ds = train_ds.cache().shuffle(1000).prefetch(buffer_size=AUTOTUNE) val_ds = val_ds.cache().prefetch(buffer_size=AUTOTUNE)
কোড ক্রেডিট:https://www.tensorflow.org/tutorials/images/classification
আউটপুট
Configuring the dataset for better performance
ব্যাখ্যা
- বাফার করা প্রিফেচিংয়ের ধারণাটি ব্যবহার করা যেতে পারে যাতে I/O ব্লক না হয়েই ডিস্ক থেকে ডেটা নেওয়া যায়।
- ডাটা লোড করার সময় দুটি গুরুত্বপূর্ণ পদ্ধতি ব্যবহার করা যেতে পারে।
- ক্যাশে() ছবিগুলিকে প্রথম যুগে ডিস্ক থেকে লোড করার পরে মেমরিতে রাখে৷
- এটি নিশ্চিত করবে যে মডেলটি প্রশিক্ষিত হওয়ার সময় ডেটাসেটটি কোনও বাধা হয়ে দাঁড়ায় না৷
- যদি ডেটাসেটটি মেমরিতে ফিট করার জন্য খুব বড় হয়, এই পদ্ধতিটি একটি পারফরম্যান্ট অন-ডিস্ক ক্যাশে তৈরি করতে ব্যবহার করা যেতে পারে।
- প্রিফেচ() প্রশিক্ষণের সময় ডেটা প্রিপ্রসেসিং এবং মডেল এক্সিকিউশনকে ওভারল্যাপ করবে।