মূল উদ্ভাবক | ওপেন এআই |
---|---|
উন্নয়নকারী | ওপেন এআই |
প্রাথমিক সংস্করণ | ১১ জুন ২০২০ (বিটা) |
রিপজিটরি | |
যে ভাষায় লিখিত | পাইথন |
পূর্বসূরী | জিপিটি-২ |
উত্তরসূরী | জিপিটি-৪ |
ধরন | অটোরিগ্রেসিভ ট্রান্সফরমার ল্যাঙ্গুয়েজ মডেল |
লাইসেন্স | মালিকানাধীন |
ওয়েবসাইট | openai |
জেনারেটিভ প্রি-ট্রেইন্ড ট্রান্সফরমার ৩ (জিপিটি-৩) হল ২০২০ সালে প্রকাশিত একটি অটোরিগ্রেসিভ ল্যাঙ্গুয়েজ মডেল, যা গভীর শিখন ব্যবহার করে মানুষের মতো লেখা রচনা করতে পারে। প্রণোদনা হিসাবে এটিতে একটি প্রাথমিক লেখা দেওয়া হলে, এটি নতুন লেখা তৈরি করে প্রদত্ত লেখাটিকে বড় করতে থাকবে।
জিপিটি-৩ গঠিত হয়েছে একটি ২০৮৬-টোকেন-লম্বা ডিকোডার-অনলি ট্রান্সফরমার নেটওয়ার্ক প্রসঙ্গ ও ১৭৫ বিলিয়ন প্যারামিটারের মাধ্যমে, যেটি সংরক্ষণ করতে ৮০০ গিগাবাইট কম্পিউটার মেমোরির প্রয়োজন হয়। মডেলটি জেনারেটিভ প্রি-ট্রেনিং ব্যবহার করে প্রশিক্ষিত করা হয়েছে যা পূর্ববর্তী টোকেনগুলির (শব্দ) উপর ভিত্তি করে পরবর্তী টোকেন কী হবে তার পূর্বাভাস দিতে পারে। মডেলটি অনেক কাজে শক্তিশালী জিরো-শট এবং ফিউ-শট শিক্ষন প্রদর্শন করেছে।[১]
জিপিটি সিরিজে জিপিটি-৩ হল জিপিটি-২ এর তৃতীয় প্রজন্মের ভাষা পূর্বাভাস মডেলের উত্তরসূরি। এটি তৈরি করেছে যুক্তরাষ্ট্রের সান ফ্রানসিস্কোতে অবস্থিত ওপেনএআই নামক একটি কৃত্রিম বুদ্ধিমত্তা গবেষণা কেন্দ্র।[২] ২০২০ সালের মে মাসে জিপিটি-৩ জনসম্মুখে উন্মুক্ত করা হয় এবং জুলাই ২০২০ পর্যন্ত এটি বিটা পর্যায়ের নিরীক্ষায় ছিল।[৩] জিপিটি-৩ বিশ্বব্যাপী চলমান স্বাভাবিক ভাষা প্রক্রিয়াজাতকরণ গবেষণার একটি অংশ যা প্রাক-প্রশিক্ষিত ভাষা উপস্থাপনার একটি সাম্প্রতিক প্রবণতা।
জিপিটি-৩ এত নিখুতভাবে লেখা রচনা করতে পারে যে এটির লেখা রচনা আর মানুষের লেখা রচনার মধ্যে পার্থক্য নিরূপণ করাটা বেশ কঠিন। এই অবস্থার উপকারিতা এবং ঝুঁকি উভয়ই আছে।[৪] ওপেনএআইয়ের ৩১ জন গবেষক ও প্রকৌশলী ২৮ মে ২০২০ সালে জিপিটি-৩ এর উপর তাদের গবেষণা প্রতিবেদন প্রকাশ করে। গবেষণাপত্রটিতে তারা জিপিটি-৩ এর সম্ভাব্য ঝুঁকি সম্পর্কে সতর্ক করে এ সম্পর্কে আরও গবেষণার আহ্বান জানায়। :৩৪ একজন অস্ট্রেলিয়ান দার্শনিক ডেভিড চালমারস জিপিটি-৩ কে "এখন পর্যন্ত উদ্ভাবিত সবচেয়ে আকর্ষণীয় এবং গুরুত্বপূর্ণ কৃত্রিম বুদ্ধিমত্তা সিস্টেমগুলির মধ্যে একটি" হিসাবে মতামত ব্যক্ত করেছেন।[৫] দ্য নিউ ইয়র্ক টাইমস- এর এপ্রিল ২০২২ সালের একটি পর্যালোচনায় জিপিটি-৩-কে মানুষের মত সাবলিলতায় রচনা লিখতে সক্ষম বলে উল্লেখ করা হয়।[৬]
মাইক্রোসফট ২২ সেপ্টেম্বর ২০২০ সালের একটি ঘোষণার মাধ্যমে জানায় যে, তাঁরা জিপিটি-৩ এর "একচেটিয়া" ব্যবহারের অনুমোদন অর্জন করেছে; অন্যরা জিপিটি-৩ এর উন্মুক্ত এপিআই ব্যবহার করতে পারলেও কেবলমাত্র মাইক্রোসফটের কাছে জিপিটি-৩ এর অভ্যন্তরীণ মডেলের প্রবেশাধিকার থাকবে।[৭]
দ্য ইকোনমিস্ট- এর মতে, উন্নত অ্যালগরিদম, শক্তিশালী কম্পিউটার এবং ডিজিটাইজড ডেটার বৃদ্ধি মেশিন লার্নিং- এ একটি বিপ্লব ঘটিয়েছে, ২০১০-এর দশকে নতুন কৌশল উদ্ভাবনের ফলে ভাষাকে প্রভাবিত করার কাজে "দ্রুত উন্নতি" হয়েছে।[৮] অনেকটা মানুষের মস্তিষ্কের নিউরাল নেটওয়ার্কের মত সফটওয়্যার মডেলগুলোকে হাজার হাজার কিংবা লক্ষ লক্ষ উদাহরনের মাধ্যমে প্রশিক্ষণ প্রদান করা হয়।[৮] স্বাভাবিক ভাষা প্রক্রিয়াজাতকরণ (এনএলপি) এ ব্যবহৃত একটি আর্কিটেকচার হল একটি গভীর শিখন মডেলের উপর ভিত্তি করে একটি নিউরাল নেটওয়ার্ক যা ২০১৭ সালে প্রথম চালু করা হয়। এর নাম ট্রান্সফরমার জিপিটি-এন মডেল হল ট্রান্সফরমার-ভিত্তিক একটি গভীর শিখন নিউরাল নেটওয়ার্ক আর্কিটেকচার। ভাষা প্রক্রিয়াকরন, মাইনিং, বিন্যাস, ইনপুটের মধ্যে সংযোগ সাধন ও বৈপরীত্য খুঁজে বের করতে সক্ষম এবং সেইসাথে সঠিকভাবে প্রশ্নের উত্তর দিতে সক্ষম এমন অনেক এনএলপি ব্যবস্থা বর্তমানে আছে।[৯]
১১ জুন ২০১৮ সালে ওপেনএআইয়ের গবেষক ও প্রকৌশলীরা একটি গবেষণা প্রতিবেদন প্রকাশ করেন যেখানে প্রথমবারের মত জেনারেটিভ প্রি-ট্রেইন্ড ট্রান্সফরমার (জিপিটি)'কে উপস্থাপন করা হয়। জিপিটি একটি উৎপাদনশীল বৃহৎ ভাষা মডেল যেটিকে বৈচিত্র্যময় ও বিপুল পরিমাণ লেখ্য তথ্য দ্বারা প্রশিক্ষিত করা হয়। পরবর্তীতে ওপেনএইআইয়ের গবেষক ও প্রকৌশলীরা জিপিটি দ্বারা নির্দিষ্ট কাজ সম্পন্ন করার জন্য বৈষম্যমূলক ফাইন-টিউনিং সম্পন্ন করেন। জিপিটি মডেলগুলো হলো গভীর শিখনের মাধ্যমে তৈরি ট্রান্সফরমার ভিত্তিক প্রাক-প্রশিক্ষিত নিউরাল নেটওয়ার্ক। তবে সবচেয়ে ভাল কাজ করা স্বাভাবিক ভাষা মডেলগুলো সাধারণত তত্বাবধানাধীন শিখন প্রয়োগ করে বানানো হয় যেখানে বিপুল পরিমাণ হাতে চিহ্নিত তথ্য ব্যবহার করা হয়। ফলে এভাবে তৈরি করা ভাষা মডেলগুলো বানাতে ব্যাপক সময় ও সম্পদের প্রয়োজন হয়।[১] প্রথম জিপিটি মডেলটির নাম ছিল "জিপিটি-১" এবং পরবর্তী জিপিটি মডেলটির নাম ছিল "জিপিট-২" যেটি ২০১৯ সালের ফেব্রুয়ারি মাসে প্রকাশিত হয়। জিপিটি-২ ছিল জিপিটি-১ এর একটি বর্ধিত রূপ। এটি জিপিটি-১ এর ডাটাসেট ও প্যারামিটারের সংখ্যার তুলনায় ১০ গুন বড় ছিল। ১৫০ কোটি প্যারামিটার সম্পন্ন এই মডেলটিকে ৮০ লক্ষ ওয়েব পাতার একটি ডাটাসেটের মাধ্যমে প্রশিক্ষণ প্রদান করা হয়েছিল।[১০]
২০২০ সালের ফেব্রুয়ারি মাসে মাইক্রোসফট, টুরিন ন্যাচারাল ল্যাঙ্গুয়েজ জেনারেশন (টি-এনএলজি) নামে একটি বৃহৎ ভাষা মডেল প্রকাশ করে যেটিকে তারা "বিশ্বের ইতিহাসে ১৭০ কোটি প্যারামিটার সমৃদ্ধ সবচেয়ে বড় ভাষা মডেল" হিসেবে দাবি করে।[১১] এটি স্বয়ংক্রিয় সংক্ষিপ্তকরণ ও প্রশ্ন-উত্তর প্রদানসহ বিভিন্ন কাজে অন্যান্য ভাষা মডেলসমূহের চেয়ে ভাল কাজ করতে পারে।
The construct of “learning styles” is problematic because it fails to account for the processes through which learning styles are shaped. Some students might develop a particular learning style because they have had particular experiences. Others might develop a particular learning style by trying to accommodate to a learning environment that was not well suited to their learning needs. Ultimately, we need to understand the interactions among learning styles and environmental and personal factors, and how these shape how we learn and the kinds of learning we experience.
– Text generated by Mike Sharples[১২]
28 মে, 2020-এ, OpenAI-এর 31 জন প্রকৌশলী এবং গবেষকদের একটি গ্রুপের একটি arXiv প্রিপ্রিন্ট GPT-3-এর বিকাশের বর্ণনা দিয়েছে, একটি তৃতীয় প্রজন্মের "অত্যাধুনিক ভাষা মডেল"। [৪] দলটি GPT-3-এর ক্ষমতা তার পূর্বসূরি, GPT-2-এর থেকে দুই অর্ডারের বেশি মাত্রায় বাড়িয়েছে,[১৩] যা GPT-3কে এখন পর্যন্ত সবচেয়ে বড় নন-স্পার্স ল্যাঙ্গুয়েজ মডেল বানিয়েছে। :১৪[২] যেহেতু GPT-3 কাঠামোগতভাবে এর পূর্বসূরীদের মতো, এর বৃহত্তর নির্ভুলতা এর বর্ধিত ক্ষমতা এবং বৃহত্তর সংখ্যক পরামিতির জন্য দায়ী।[১৪] GPT-3 এর ক্ষমতা মাইক্রোসফ্টের টুরিং NLG এর চেয়ে দশগুণ বড়, যা সেই সময়ে পরিচিত পরবর্তী বৃহত্তম NLP মডেল।[৪]
Lambdalabs অনুমান করেছে প্রায় $4.6 মিলিয়ন মার্কিন ডলার এবং 355 বছর একটি একক GPU- তে GPT-3 প্রশিক্ষণের জন্য 2020, সমান্তরালভাবে আরও GPU ব্যবহার করে প্রকৃত প্রশিক্ষণের সময় কম।
GPT-3 এর জন্য ওয়েটেড প্রাক-প্রশিক্ষণ ডেটাসেটের ষাট শতাংশ 410 বিলিয়ন বাইট-পেয়ার-এনকোডেড টোকেন সমন্বিত কমন ক্রলের একটি ফিল্টার করা সংস্করণ থেকে আসে। :৯অন্যান্য উত্স হল WebText2 থেকে 19 বিলিয়ন টোকেন যা মোট ওজনের 22% প্রতিনিধিত্ব করে, 8% প্রতিনিধিত্ব করে Books1 থেকে 12 বিলিয়ন টোকেন, 8% প্রতিনিধিত্ব করে Books2 থেকে 55 বিলিয়ন টোকেন এবং 3% প্রতিনিধিত্ব করে উইকিপিডিয়া থেকে 3 বিলিয়ন টোকেন। :৯GPT-3 শত শত বিলিয়ন শব্দের উপর প্রশিক্ষিত ছিল এবং এটি CSS, JSX, এবং Python এর মধ্যে কোডিং করতেও সক্ষম।[৩]
ডেটাসেট | # টোকেন | প্রশিক্ষণের অনুপাত |
---|---|---|
কমন ক্রল | ৪১৯ বিলিয়ন | ৬০% |
ওয়েবটেক্সট২ | ১৯ বিলিয়ন | ২২% |
বুকস১ | ১২ বিলিয়ন | ৮% |
বুকস২ | ৫৫ বিলিয়ন | ৮% |
উইকিপিডিয়া | ৩ বিলিয়ন | ৩% |
যেহেতু GPT-3-এর প্রশিক্ষণের ডেটা সর্বাঙ্গীণ ছিল, তাই আলাদা ভাষার কাজের জন্য আরও প্রশিক্ষণের প্রয়োজন নেই।[৩] প্রশিক্ষণের ডেটা মাঝে মাঝে বিষাক্ত ভাষা ধারণ করে এবং GPT-3 মাঝে মাঝে বিষাক্ত ভাষা তৈরি করে তার প্রশিক্ষণের ডেটা নকল করার ফলে। ওয়াশিংটন বিশ্ববিদ্যালয়ের একটি সমীক্ষায় দেখা গেছে যে GPT-3 জিপিটি-2 এবং CTRL-এর অনুরূপ প্রাকৃতিক ভাষা প্রক্রিয়াকরণ মডেলের সাথে তুলনীয় বিষাক্ত স্তরে বিষাক্ত ভাষা তৈরি করেছে। OpenAI GPT-3 দ্বারা উত্পন্ন বিষাক্ত ভাষার পরিমাণ সীমিত করার জন্য বেশ কিছু কৌশল প্রয়োগ করেছে। ফলস্বরূপ, GPT-3 তার পূর্বসূরি মডেল, GPT-1-এর তুলনায় কম বিষাক্ত ভাষা তৈরি করেছে, যদিও এটি CTRL উইকির তুলনায় আরও প্রজন্ম এবং বিষাক্ত ভাষার উচ্চ বিষাক্ততা উভয়ই তৈরি করেছে, একটি ভাষা মডেল যা সম্পূর্ণরূপে উইকিপিডিয়া ডেটাতে প্রশিক্ষিত।
11 জুন, 2020-এ, OpenAI ঘোষণা করেছে যে ব্যবহারকারীরা তার ব্যবহারকারী-বান্ধব GPT-3 API-এ অ্যাক্সেসের জন্য অনুরোধ করতে পারে—একটি "মেশিন লার্নিং টুলসেট" — যাতে OpenAI-কে এই নতুন প্রযুক্তির "শক্তি ও সীমাগুলি অন্বেষণ করতে" সাহায্য করা যায়।[১৫][১৬] আমন্ত্রণটি বর্ণনা করেছে যে কীভাবে এই API-এর একটি সাধারণ-উদ্দেশ্য "টেক্সট ইন, টেক্সট আউট" ইন্টারফেস ছিল যা সাধারণ একক ব্যবহারের পরিবর্তে প্রায় "যেকোন ইংরেজি ভাষার কাজ" সম্পূর্ণ করতে পারে।[১৫] একজন ব্যবহারকারীর মতে, যাদের OpenAI GPT-3 API-এর একটি প্রাইভেট প্রারম্ভিক রিলিজ অ্যাক্সেস ছিল, GPT-3 শুধুমাত্র কয়েকটি সহজ প্রম্পট সহ "আশ্চর্যজনকভাবে সুসংগত পাঠ্য" লেখার ক্ষেত্রে "খুব ভালো" ছিল।[১৭] একটি প্রাথমিক পরীক্ষায় 80টি মার্কিন বিষয়কে বিচার করতে বলা হয়েছিল যে ~200 শব্দের সংক্ষিপ্ত নিবন্ধগুলি মানুষ বা GPT-3 দ্বারা লেখা হয়েছে কিনা। অংশগ্রহণকারীরা 52% সময় সঠিকভাবে বিচার করেছে, এলোমেলো অনুমান করার চেয়ে সামান্য ভাল করছে।
18 নভেম্বর, 2021-এ, OpenAI ঘোষণা করেছে যে যথেষ্ট সুরক্ষা কার্যকর করা হয়েছে যে তার API-এ অ্যাক্সেস সীমাবদ্ধ থাকবে না।[১৮] OpenAI ডেভেলপারদের একটি বিষয়বস্তু সংযম সরঞ্জাম প্রদান করেছে যা তাদেরকে OpenAI এর বিষয়বস্তু নীতি মেনে চলতে সাহায্য করে।[১৯] 27 জানুয়ারী, 2022-এ, ওপেনএআই ঘোষণা করেছে যে তার নতুন GPT-3 ভাষার মডেলগুলি, সম্মিলিতভাবে InstructGPT নামে পরিচিত, এখন তাদের API- এ ব্যবহৃত ডিফল্ট ভাষা মডেল। OpenAI-এর মতে, InstructGPT এমন বিষয়বস্তু তৈরি করেছে যা ব্যবহারকারীর অভিপ্রায়ের সাথে আরও ভালভাবে সারিবদ্ধভাবে নির্দেশাবলী অনুসরণ করে, কম তৈরি করা তথ্য তৈরি করে এবং কিছুটা কম বিষাক্ত সামগ্রী তৈরি করে।[২০]
যেহেতু GPT-3 "সংবাদ নিবন্ধ তৈরি করতে পারে যা মানব মূল্যায়নকারীদের মানুষের দ্বারা লিখিত নিবন্ধগুলি থেকে আলাদা করতে অসুবিধা হয়,"[৪] GPT-3 এর "ভাষা মডেলের উপকারী এবং ক্ষতিকারক উভয় প্রয়োগকে এগিয়ে নেওয়ার সম্ভাবনা রয়েছে।" :৩৪তাদের 28 মে, 2020 গবেষণাপত্রে, গবেষকরা সম্ভাব্য "GPT-3 এর ক্ষতিকর প্রভাব"[৪] বিস্তারিতভাবে বর্ণনা করেছেন যার মধ্যে রয়েছে "ভুল তথ্য, স্প্যাম, ফিশিং, আইনি ও সরকারী প্রক্রিয়ার অপব্যবহার, প্রতারণামূলক একাডেমিক প্রবন্ধ লেখা এবং সামাজিক প্রকৌশল অজুহাত " লেখক ঝুঁকি প্রশমনে গবেষণার আহ্বান জানাতে এই বিপদগুলির প্রতি দৃষ্টি আকর্ষণ করেন। :৩৪
2022 সালের জুন মাসে, আলমিরা ওসমানোভিক থানস্ট্রোম লিখেছিলেন যে GPT-3 নিজেই একটি নিবন্ধের প্রাথমিক লেখক, যে তারা এটি প্রকাশের জন্য জমা দিয়েছিল,[২১] এবং এটির পর্যালোচনা শেষ হওয়ার অপেক্ষায় এটি পূর্ব-প্রকাশিত হয়েছিল।[২২]
15 মার্চ, 2022-এ, OpenAI তার API-এ GPT-3 এবং কোডেক্সের নতুন সংস্করণ "টেক্সট-ডেভিন্সি-002" এবং "কোড-ডেভিন্সি-002" নামে সম্পাদনা ও সন্নিবেশ করার ক্ষমতা সহ উপলব্ধ করেছে।[২৩] এই মডেলগুলিকে পূর্ববর্তী সংস্করণগুলির তুলনায় আরও বেশি সক্ষম হিসাবে বর্ণনা করা হয়েছিল এবং জুন 2021 পর্যন্ত ডেটা সম্পর্কে প্রশিক্ষণ দেওয়া হয়েছিল[২৪] 30 নভেম্বর, 2022-এ, OpenAI এই মডেলগুলিকে "GPT-3.5" সিরিজের অন্তর্গত হিসাবে উল্লেখ করা শুরু করে,[২৪] এবং ChatGPT প্রকাশ করে, যেটি GPT-3.5 সিরিজের একটি মডেল থেকে সূক্ষ্ম সুর করা হয়েছিল।[২৫]
GPT-3 এর নির্মাতা, OpenAI, প্রাথমিকভাবে 2015 সালে একটি অলাভজনক হিসাবে প্রতিষ্ঠিত হয়েছিল[৪৮] 2019 সালে, ওপেনএআই তার স্বাভাবিক ওপেন-সোর্স স্ট্যান্ডার্ডগুলি থেকে GPT-3-এর পূর্বসূরি মডেল প্রকাশ না করে, উদ্বেগ উদ্ধৃত করে যে মডেলটি ভুয়া খবর প্রচারের সুবিধা দিতে পারে। OpenAI অবশেষে GPT-2 এর একটি সংস্করণ প্রকাশ করেছে যা আসল মডেলের আকারের 8% ছিল।[৪৯] একই বছরে, OpenAI একটি লাভজনক কোম্পানিতে পুনর্গঠন করে।[৫০] 2020 সালে, মাইক্রোসফ্ট ঘোষণা করেছিল যে OpenAI-তে মাল্টি-বিলিয়ন ডলার বিনিয়োগের পরে মাইক্রোসফ্টের পণ্য এবং পরিষেবাগুলির জন্য কোম্পানির কাছে GPT-3 এর একচেটিয়া লাইসেন্স রয়েছে। চুক্তিটি OpenAI-কে একটি পাবলিক-ফেসিং API অফার করার অনুমতি দেয় যাতে ব্যবহারকারীরা মডেলের আউটপুট পেতে GPT-3 তে পাঠ্য পাঠাতে পারে, কিন্তু শুধুমাত্র Microsoft-এর কাছে GPT-3 এর সোর্স কোড অ্যাক্সেস থাকবে।[৭]
GPT-3-এর মতো বড় ভাষার মডেলগুলি প্রশিক্ষণ এবং মডেলগুলি সংরক্ষণের পরিবেশগত প্রভাবের জন্য Google-এর কিছু AI নীতিশাস্ত্র গবেষকদের সমালোচনার মুখে পড়েছে, 2021 সালে Timnit Gebru এবং Emily M. Bender দ্বারা সহ-লেখক একটি গবেষণাপত্রে বিস্তারিত[৫১]
ক্রমবর্ধমান </link> GPT-3 এবং অন্যান্য ভাষা জেনারেটরের উপর ভিত্তি করে স্বয়ংক্রিয় লেখার প্রযুক্তির ব্যবহার, একাডেমিক অখণ্ডতা সম্পর্কে উদ্বেগ উত্থাপন করেছে[৫২] এবং কীভাবে বিশ্ববিদ্যালয় এবং স্কুলগুলি একাডেমিক অসদাচরণ যেমন চুরির মতো বিষয়গুলি নির্ধারণ করবে তা নির্ধারণ করবে।[৫৩]
OpenAI-এর GPT সিরিজটি 12 বছর ধরে 60 মিলিয়ন ডোমেন থেকে স্ক্র্যাপ করা কপিরাইটযুক্ত নিবন্ধ, ইন্টারনেট পোস্ট, ওয়েব পেজ এবং বইগুলির একটি সমষ্টি, কমন ক্রল ডেটাসেট থেকে ডেটা নিয়ে তৈরি করা হয়েছিল। TechCrunch রিপোর্ট করে যে এই প্রশিক্ষণের ডেটাতে BBC, The New York Times, Reddit, অনলাইন বইগুলির সম্পূর্ণ পাঠ্য এবং আরও অনেক কিছু থেকে কপিরাইটযুক্ত উপাদান রয়েছে৷[৫৪] ইউনাইটেড স্টেটস পেটেন্ট অ্যান্ড ট্রেডমার্ক অফিস (ইউএসপিটিও) থেকে কৃত্রিম বুদ্ধিমত্তা উদ্ভাবনের জন্য বুদ্ধিবৃত্তিক সম্পত্তি সুরক্ষার উপর মন্তব্যের জন্য 2019 সালের একটি অনুরোধের প্রতিক্রিয়ায়, OpenAI যুক্তি দিয়েছিল যে "বর্তমান আইনের অধীনে, AI সিস্টেমের প্রশিক্ষণ [যেমন এর GPT মডেলগুলি] ন্যায্য ব্যবহার গঠন করে "কিন্তু এটি "বিন্দুতে মামলা আইনের অভাবের কারণে, ওপেনএআই এবং আমাদের মতো অন্যান্য এআই বিকাশকারীরা যথেষ্ট আইনি অনিশ্চয়তা এবং কমপ্লায়েন্স খরচের সম্মুখীন হচ্ছে।"[৫৫]
<ref>
ট্যাগ বৈধ নয়; আলাদা বিষয়বস্তুর সঙ্গে "OpenAI_Radford_20200611" নামটি একাধিক বার সংজ্ঞায়িত করা হয়েছে
<ref>
ট্যাগ বৈধ নয়; আলাদা বিষয়বস্তুর সঙ্গে "CNBC_Shead_20200723" নামটি একাধিক বার সংজ্ঞায়িত করা হয়েছে
<ref>
ট্যাগ বৈধ নয়; আলাদা বিষয়বস্তুর সঙ্গে "Medium_Bussler_20200721" নামটি একাধিক বার সংজ্ঞায়িত করা হয়েছে
|শিরোনাম=
অনুপস্থিত বা খালি (সাহায্য) উদ্ধৃতি ত্রুটি: <ref>
ট্যাগ বৈধ নয়; আলাদা বিষয়বস্তুর সঙ্গে "analyticsindiamag_Sagar_20200603" নামটি একাধিক বার সংজ্ঞায়িত করা হয়েছে
<ref>
ট্যাগ বৈধ নয়; আলাদা বিষয়বস্তুর সঙ্গে "DailyNous_Weinberg_Chalmer_20200730" নামটি একাধিক বার সংজ্ঞায়িত করা হয়েছে
|শিরোনাম=
অনুপস্থিত বা খালি (সাহায্য) উদ্ধৃতি ত্রুটি: <ref>
ট্যাগ বৈধ নয়; আলাদা বিষয়বস্তুর সঙ্গে "MSgotcode" নামটি একাধিক বার সংজ্ঞায়িত করা হয়েছে
|শিরোনাম=
অনুপস্থিত বা খালি (সাহায্য)
GPT-2, is a 1.5B parameter Transformer
If you've ever wanted to try out OpenAI's vaunted machine learning toolset, it just got a lot easier. The company has released an API that lets developers call its AI tools in on "virtually any English language task."
|শিরোনাম=
অনুপস্থিত বা খালি (সাহায্য)
|pmid=
এর মান পরীক্ষা করুন (সাহায্য)।
|শিরোনাম=
অনুপস্থিত বা খালি (সাহায্য)
|শিরোনাম=
অনুপস্থিত বা খালি (সাহায্য)
<references>
-এ সংজ্ঞায়িত "preprint" নামসহ <ref>
ট্যাগ পূর্ববর্তী লেখায় ব্যবহৃত হয়নি।