সমস্যা বিবৃতি: boto3 ব্যবহার করুন আপনার অ্যাকাউন্টে তৈরি AWS Glue Data Catalog থেকে S3 বাকেটের মাল্টি-পার্ট আপলোড অবজেক্টের মাধ্যমে পেজিনেট করতে পাইথনে লাইব্রেরি
এই সমস্যা সমাধানের জন্য অ্যাপ্রোচ/অ্যালগরিদম
-
ধাপ 1: boto3 আমদানি করুন৷ এবং বোটোকোর ব্যতিক্রমগুলি পরিচালনা করার জন্য ব্যতিক্রম৷
-
ধাপ 2: prefix_name, max_items , পৃষ্ঠা_আকার এবং স্টার্টিং_টোকেন এই ফাংশনের জন্য ঐচ্ছিক প্যারামিটার যখন bucket_name প্রয়োজনীয় প্যারামিটার।
-
উপসর্গ_নাম নির্দিষ্ট সাব ফোল্ডার যেখানে ব্যবহারকারী
এর মাধ্যমে পেজিনেট করতে চায় -
সর্বোচ্চ_আইটেম ফেরত দেওয়ার জন্য মোট রেকর্ড সংখ্যা নির্দেশ করুন। যদি উপলব্ধ রেকর্ডের সংখ্যা> সর্বোচ্চ_আইটেম , তারপর একটি NextToken পৃষ্ঠা সংখ্যা পুনঃসূচনা করার প্রতিক্রিয়াতে প্রদান করা হবে।
-
পৃষ্ঠা_আকার প্রতিটি পৃষ্ঠার আকার বোঝায়।
-
-
শুরু_টোকেন পেজিনেট করতে সাহায্য করে, এবং এটি পূর্ববর্তী প্রতিক্রিয়া থেকে মার্কার ব্যবহার করে।
-
ধাপ 3: boto3 lib ব্যবহার করে একটি AWS সেশন তৈরি করুন . অঞ্চলের_নাম নিশ্চিত করুন ডিফল্ট প্রোফাইলে উল্লেখ করা আছে। যদি এটি উল্লেখ না থাকে, তাহলে স্পষ্টভাবে অঞ্চল_নাম পাস করুন সেশন তৈরি করার সময়।
-
পদক্ষেপ 4: S3 এর জন্য একটি AWS ক্লায়েন্ট তৈরি করুন।
-
ধাপ 5: একটি পেজিনেটর তৈরি করুন৷ list_multipart_uploads ব্যবহার করে একটি S3 বাকেটের অবজেক্ট সংস্করণের বিশদ বিবরণ রয়েছে .
-
ধাপ 6: পেজিনেট ফাংশন কল করুন এবং সর্বোচ্চ_আইটেম পাস করুন , পৃষ্ঠা_আকার এবং স্টার্টিং_টোকেন প্যাজিনেশন কনফিগারেশন হিসেবে প্যারামিটার যখন bucket_name বালতি পরামিতি হিসাবে এবং উপসর্গ হিসাবে prefix_name।
-
পদক্ষেপ 7: এটি max_size এর উপর ভিত্তি করে রেকর্ডের সংখ্যা প্রদান করে এবং পৃষ্ঠা_আকার .
-
ধাপ 8: পেজিন করার সময় কিছু ভুল হলে জেনেরিক ব্যতিক্রমটি পরিচালনা করুন।
উদাহরণ কোড
ব্যবহারকারীর অ্যাকাউন্টে তৈরি একটি S3 বাকেটের মাল্টিপার্ট আপলোডের মাধ্যমে পেজিনেট করতে নিম্নলিখিত কোডটি ব্যবহার করুন -
import boto3 from botocore.exceptions import ClientError def paginate_through_multipart_upload_s3_bucket(bucket_name, prefix_name=None, max_items=None:int,page_size=None:int, starting_token=None:string): session = boto3.session.Session() s3_client = session.client('s3') try: paginator = s3_client.get_paginator('list_objects') response = paginator.paginate(Bucket=bucket_name, Prefix=prefix_name, PaginationConfig={ 'MaxItems':max_items, 'PageSize':page_size, 'StartingToken':starting_token} ) return response except ClientError as e: raise Exception("boto3 client error in paginate_through_multipart_upload_s3_bucket: " + e.__str__()) except Exception as e: raise Exception("Unexpected error in paginate_through_multipart_upload_s3_bucket: " + e.__str__()) a = paginate_through_multipart_upload_s3_bucket('s3-test-bucket', 'testfolder',2,5) print(*a)
আউটপুট
{'ResponseMetadata': {'RequestId': 'YA9CGTAAX', 'HostId': '8dqJW******************', 'HTTPStatusCode': 200, 'HTTPHeaders': {'x-amz-id-2': '8dqJW*********************, 'x-amz-request-id': 'YA9CGTAAX', 'date': 'Sat, 03 Apr 2021 08:16:05 GMT', 'content-type': 'application/xml', 'transfer-encoding': 'chunked', 'server': 'AmazonS3'}, 'RetryAttempts': 0}, 'Bucket': 's3-test-bucket', 'KeyMarker': '', 'UploadIdMarker': '', 'NextKeyMarker': '', 'Prefix': 'testfolder', 'NextUploadIdMarker': '', 'MaxUploads': 5, 'IsTruncated': False, 'Uploads': [ {'UploadId': 'YADF**************LK25', 'Key': 'testfolder/testfilemultiupload.csv', 'Intiated':datetime(2021,1,2), 'StorageClass': 'STANDARD' 'Owner':{ 'DisplayName': 'AmazonServicesJob' 'Id': '********************' } ], 'CommonPrefixes': None}