প্রযুক্তি ডেস্ক
চ্যাটজিপিটিতে সম্প্রতি নতুন একটি ত্রুটি দেখা দেয়। এই ত্রুটির কারণে অন্য ব্যবহারকারীদের কথোপকথনের শিরোনাম দেখতে পেয়েছেন কিছু ব্যবহারকারী। সোশ্যাল মিডিয়া সাইট রেডিট এবং টুইটারে কিছু ব্যবহারকারী তাদের চ্যাটজিপিটিতে চ্যাটের ইতিহাসের কিছু স্ক্রিনশট শেয়ার করেন। যেখানে দেখা যায় চ্যাটের তথ্যগুলো তাদের নয়।
বিবিসির প্রতিবেদন অনুযায়ী, ওপেনএআই’র প্রধান নির্বাহী স্যাম অল্টম্যান বলেন, ‘আমরা বিব্রত বোধ করছি, তবে এই ত্রুটিটি সংশোধন করা হয়েছে।’ অনেক ব্যবহারকারী চ্যাটজিপিটির গোপনীয়তা নিয়ে উদ্বিগ্ন থাকেন। গত নভেম্বরে এটি চালু হওয়ার পর থেকে লাখ লাখ মানুষ বার্তা খসড়া করতে, গান লিখতে এবং এমনকি কোড করতে এই প্ল্যাটফর্ম ব্যবহার করেছেন।
চ্যাটজিপিটিতে প্রতিটি চ্যাটের হিস্ট্রি সংরক্ষণ করা হয় যা পরে আবার দেখা যায়। তবে গত ২০ মার্চ থেকে ব্যবহারকারীরা তাদের চ্যাট হিস্ট্রিতে যে চ্যাট গুলো দেখতে পাচ্ছিলেন সেগুলো তাদের নয়। রেডিটে একজন ব্যবহারকারী তাঁর চ্যাটের ইতিহাসের একটি ছবি শেয়ার করেছেন যার শিরোনাম— চীনের সমাজতন্ত্র উন্নয়ন। পুরো কথোপকথনটি মান্দারিন ভাষায় করা হয়েছে।
চ্যাটজিপিটি জানিয়েছে, ত্রুটিটি ঠিক করা হয়েছে। এ ছাড়া, ব্যবহারকারীরা শুধু অন্যের চ্যাটের টাইটেল দেখতে পেয়েছিলেন। চ্যাট পড়তে পারেননি।
সম্প্রতি, চ্যাটজিপিটি নিয়ে নিজের শঙ্কার কথা জানান স্যাম অল্টম্যান। বিজনেস ইনসাইডারের প্রতিবেদন অনুযায়ী, এবিসি নিউজকে দেওয়া এক সাক্ষাৎকারে অল্টম্যান বলেন, ‘এআই চ্যাটবটটি অনেক ধরনের চাকরি বিলুপ্ত করবে। এটি যে সব কাজ করতে পারে তার জন্য আর মানুষের প্রয়োজন হবে না। মানুষ প্রমাণ করেছে, তারা প্রযুক্তিগত পরিবর্তনের সঙ্গে মানিয়ে নিতে পারে। তবে কিছু পরিবর্তন ১০ বছরেরও কম সময়ে ঘটবে।’
তিনি আরও বলেন, ‘মানুষের সৃষ্টিশীলতা সীমাহীন। মানুষ কোনো না কোনোভাবে নতুন কাজ খুঁজে নেয়।’
চ্যাটজিপিটির অপব্যবহার নিয়েও শঙ্কা প্রকাশ করে অল্টম্যান বলেন, ‘এআই ল্যাঙ্গুয়েজ মডেলগুলো বৃহৎ পরিসরে ভুয়া তথ্য ছড়ানোর কাজে ব্যবহার করা হতে পারে।’ সাইবার হামলা বাড়ার আশঙ্কার কথাও জানান অল্টম্যান। কারণ, ধীরে ধীরে কোডিংয়েও পারদর্শী হয়ে উঠছে চ্যাটজিপিটি। চ্যাটজিপিটি কৃত্রিম বুদ্ধিমত্তাভিত্তিক টুল হলেও তা মানুষই নিয়ন্ত্রণ করে। তাই কোন ধরনের মানুষ এটা নিয়ন্ত্রণ করছে সেটাও ভাবার বিষয়।
অল্টম্যান গত মাসে একাধিক টুইট বার্তার মাধ্যমে সতর্কবার্তা জানান। এক টুইটে তিনি লেখেন, পৃথিবী কৃত্রিম বুদ্ধিমত্তার ভয়ংকর প্রভাব থেকে বেশি দূরে নয়। আরেক টুইটে এআইকে নিয়ন্ত্রণের কথাও বলেন অল্টম্যান।
গত সপ্তাহে ওপেনএআই জিপিটি-৪ উন্মোচন করে। অল্টম্যান এই সংস্করণকে আগের সংস্করণের তুলনায় ‘কম পক্ষপাতদুষ্ট’ ও ‘আরও সৃজনশীল’ হিসেবে আখ্যা দিয়েছেন। জিপিটি-৪ ব্যবহার করতে হলে চ্যাটজিপিটির প্লাস সাবস্ক্রিপশন সেবা নিতে হবে। নতুন এই সংস্করণ আগের সংস্করণের তুলনায় আরও নির্ভুল হওয়ার পাশাপাশি ব্যবহারকারীদের সঙ্গে এটি আগের চেয়ে বেশি সময় ধরে সংলাপ করতে সক্ষম।
চ্যাটজিপিটিতে সম্প্রতি নতুন একটি ত্রুটি দেখা দেয়। এই ত্রুটির কারণে অন্য ব্যবহারকারীদের কথোপকথনের শিরোনাম দেখতে পেয়েছেন কিছু ব্যবহারকারী। সোশ্যাল মিডিয়া সাইট রেডিট এবং টুইটারে কিছু ব্যবহারকারী তাদের চ্যাটজিপিটিতে চ্যাটের ইতিহাসের কিছু স্ক্রিনশট শেয়ার করেন। যেখানে দেখা যায় চ্যাটের তথ্যগুলো তাদের নয়।
বিবিসির প্রতিবেদন অনুযায়ী, ওপেনএআই’র প্রধান নির্বাহী স্যাম অল্টম্যান বলেন, ‘আমরা বিব্রত বোধ করছি, তবে এই ত্রুটিটি সংশোধন করা হয়েছে।’ অনেক ব্যবহারকারী চ্যাটজিপিটির গোপনীয়তা নিয়ে উদ্বিগ্ন থাকেন। গত নভেম্বরে এটি চালু হওয়ার পর থেকে লাখ লাখ মানুষ বার্তা খসড়া করতে, গান লিখতে এবং এমনকি কোড করতে এই প্ল্যাটফর্ম ব্যবহার করেছেন।
চ্যাটজিপিটিতে প্রতিটি চ্যাটের হিস্ট্রি সংরক্ষণ করা হয় যা পরে আবার দেখা যায়। তবে গত ২০ মার্চ থেকে ব্যবহারকারীরা তাদের চ্যাট হিস্ট্রিতে যে চ্যাট গুলো দেখতে পাচ্ছিলেন সেগুলো তাদের নয়। রেডিটে একজন ব্যবহারকারী তাঁর চ্যাটের ইতিহাসের একটি ছবি শেয়ার করেছেন যার শিরোনাম— চীনের সমাজতন্ত্র উন্নয়ন। পুরো কথোপকথনটি মান্দারিন ভাষায় করা হয়েছে।
চ্যাটজিপিটি জানিয়েছে, ত্রুটিটি ঠিক করা হয়েছে। এ ছাড়া, ব্যবহারকারীরা শুধু অন্যের চ্যাটের টাইটেল দেখতে পেয়েছিলেন। চ্যাট পড়তে পারেননি।
সম্প্রতি, চ্যাটজিপিটি নিয়ে নিজের শঙ্কার কথা জানান স্যাম অল্টম্যান। বিজনেস ইনসাইডারের প্রতিবেদন অনুযায়ী, এবিসি নিউজকে দেওয়া এক সাক্ষাৎকারে অল্টম্যান বলেন, ‘এআই চ্যাটবটটি অনেক ধরনের চাকরি বিলুপ্ত করবে। এটি যে সব কাজ করতে পারে তার জন্য আর মানুষের প্রয়োজন হবে না। মানুষ প্রমাণ করেছে, তারা প্রযুক্তিগত পরিবর্তনের সঙ্গে মানিয়ে নিতে পারে। তবে কিছু পরিবর্তন ১০ বছরেরও কম সময়ে ঘটবে।’
তিনি আরও বলেন, ‘মানুষের সৃষ্টিশীলতা সীমাহীন। মানুষ কোনো না কোনোভাবে নতুন কাজ খুঁজে নেয়।’
চ্যাটজিপিটির অপব্যবহার নিয়েও শঙ্কা প্রকাশ করে অল্টম্যান বলেন, ‘এআই ল্যাঙ্গুয়েজ মডেলগুলো বৃহৎ পরিসরে ভুয়া তথ্য ছড়ানোর কাজে ব্যবহার করা হতে পারে।’ সাইবার হামলা বাড়ার আশঙ্কার কথাও জানান অল্টম্যান। কারণ, ধীরে ধীরে কোডিংয়েও পারদর্শী হয়ে উঠছে চ্যাটজিপিটি। চ্যাটজিপিটি কৃত্রিম বুদ্ধিমত্তাভিত্তিক টুল হলেও তা মানুষই নিয়ন্ত্রণ করে। তাই কোন ধরনের মানুষ এটা নিয়ন্ত্রণ করছে সেটাও ভাবার বিষয়।
অল্টম্যান গত মাসে একাধিক টুইট বার্তার মাধ্যমে সতর্কবার্তা জানান। এক টুইটে তিনি লেখেন, পৃথিবী কৃত্রিম বুদ্ধিমত্তার ভয়ংকর প্রভাব থেকে বেশি দূরে নয়। আরেক টুইটে এআইকে নিয়ন্ত্রণের কথাও বলেন অল্টম্যান।
গত সপ্তাহে ওপেনএআই জিপিটি-৪ উন্মোচন করে। অল্টম্যান এই সংস্করণকে আগের সংস্করণের তুলনায় ‘কম পক্ষপাতদুষ্ট’ ও ‘আরও সৃজনশীল’ হিসেবে আখ্যা দিয়েছেন। জিপিটি-৪ ব্যবহার করতে হলে চ্যাটজিপিটির প্লাস সাবস্ক্রিপশন সেবা নিতে হবে। নতুন এই সংস্করণ আগের সংস্করণের তুলনায় আরও নির্ভুল হওয়ার পাশাপাশি ব্যবহারকারীদের সঙ্গে এটি আগের চেয়ে বেশি সময় ধরে সংলাপ করতে সক্ষম।
বিশ্বজুড়ে প্রচলিত সার্চ ইঞ্জিনের বিকল্প হিসেবে জনপ্রিয় হয়ে উঠছে জেনারেটিভ এআই টুল, যেমন—চ্যাটজিপিটি, গুগলের জেমিনি ও অ্যানথ্রপিকের ক্লদ। গ্রাহকরা এখন তথ্য খোঁজা থেকে শুরু করে কেনাকাটার সিদ্ধান্ত নেওয়া পর্যন্ত এইসব কনভারসেশনাল এআইয়ের ওপরই ভরসা করছেন। তাই চ্যাটবটের সঙ্গে যুক্ত লিংকের মাধ্যমেই ওয়েবসাইট
১৩ ঘণ্টা আগেবিশ্বের অন্যতম ধনকুবের জেফ বেজোস ও তাঁর বাগদত্তা লরেন সানচেজ ভেনিসের সান জর্জিও দ্বীপে বিয়ে করতে যাচ্ছেন। বিয়ের নির্দিষ্ট তারিখ গোপন রাখা হলেও তিন দিনের এই বিলাসবহুল অনুষ্ঠান (২৩ থেকে ২৫ জুন) ঘিরে ইতালির এই ঐতিহাসিক শহরে তৈরি হয়েছে চাঞ্চল্য।
১৫ ঘণ্টা আগেঅবশেষে যুক্তরাষ্ট্রের রাস্তায় নামছে ইলন মাস্কের টেসলা কোম্পানির চালকবিহীন, স্বচালিত (সেলফ ড্রাইভিং) গাড়ি ‘রোবোট্যাক্সি’। গতকাল রোববার (২২ জুন) টেক্সাস অঙ্গরাজ্যের অস্টিন শহরে সীমিত পরিসরে শুরু হয়েছে পরীক্ষামূলক এই সেবা।
১৮ ঘণ্টা আগেছবি ও ভিডিও পোস্ট করার পাশাপাশি ইনস্টাগ্রামে মেসেজ আদান-প্রদানের জন্যও বেশ ব্যবহৃত হয়। অনেক সময় দ্রুত চ্যাটিংয়ের সময় টেক্সটে বানান ভুলের মতো অন্য কোনো ভুলও হদে পারে। তবে ইনস্টাগ্রাম এডিট করারও সুযোগ রেখেছে। ফলে কোনো ভুল মেসেজ পাঠানো হলেও তা খুব সহজেই সংশোধন করে নেওয়া যায়।
২০ ঘণ্টা আগে