نوشتن این AI بسیار انسانی است که سازندگان آن ترس دارند تا آن را منتشر کنند
اشتراک اجتماعی
سیستم جدید OpenAI، که GPT-2 نامیده می شود، به عنوان "نوعی وابسته به همسانی" توصیف شده است، که مطابق با موضوع و سبک است
Ramona Pringle · اخبار CBC · ارسال شده: 25 فوریه، 2019 4:00 AM ET | آخرین به روز رسانی: 25 فوریه
سیستم جدید OpenAI که GPT-2 نامیده می شود، به عنوان نسل بعدی ابزار پیش بینی متن پیش بینی شده است. محتوای آن را برای نمونه ارسال کنید - چند کلمه یا چند صفحه - و AI احتمالا می نویسد چه چیزی بعدا می آید. (maxuser / Shutterstock)

یک ژنراتور نوشتاری جدید که توسط هوش مصنوعی هدایت می شود ظاهرا بسیار خوب است و سازندگان آن تصمیم گرفته اند که آن را در دسترس عموم قرار ندهند.

این ابزار توسط OpenAI، یک شرکت تحقیقاتی غیر انتفاعی ایجاد شد که پشتیبانان آن Elon Musk، Peter Thiel و Reid Hoffman بود و با مأموریت "کشف و راه اندازی هوش مصنوعی هوشمند مصنوعی" تاسیس شد.

اما در حال حاضر OpenAI نگران این است که چیزی که این محققان با اهداف خوبی داشته باشد، به راحتی می تواند مورد سوء استفاده قرار گیرد، از این جهت که از دست دادن اشتباه خطرناک است.

سیستم جدید OpenAI که به نام GPT-2 نامیده می شود، به عنوان نسل بعدی متن پیش بینی شده به حساب می آید و در هشت میلیون صفحه وب آموزش دیده است. گفته شده است که AI به نوشتن پروسس معتبر صدایی می پردازد که می تواند انسان ها را گول بزند، که در مورد تولید انبوه اطلاعات غلط در معرض خطر است.

محتوای آن را برای نمونه ارسال کنید - چند کلمه یا چند صفحه - آن را ارسال کنید و AI آن چیزی را که بعدا می نویسد، با یک قطعه منسجم و قابل قبول که مطابق با موضوع و سبک مواد منبع است، بنویسید.


محققان در توضیح این که چرا آنها را منتشر نکردند، نوشتند: "این مدل به نوعی وابسته به کلاملون است - آن را با سبک و محتوای متن تهویه مطابقت می کند. این به کاربر اجازه می دهد تا در مورد موضوعی که انتخاب می کنند، پیوسته ای را دنبال کند." ابزار

بنابراین در حالی که کیفیت خروجی چشمگیر است - به طور عمده دارای اشکالات و اشتباهات است که با تلاش های قبلی در متن پیش بینی شده معمول است - نوآوری واقعی سیستم GPT-محدوده وسیعی از محتوا است که قادر به ایجاد و، به نوبه خود، انواع مختلف استفاده بالقوه آن است.
از داستان به اخبار

به گفته محققان، ژنراتور متن قادر به شبیه سازی سبک هر چیزی از آثار کلاسیک داستان به داستان های خبری است، بسته به آنچه که تغذیه می شود.

در یک مثال، سیستم با خط صفر نوزده و هشتاد و چهار جورج اورول مطرح شد: "این یک روز سرد در ماه آوریل بود، و ساعت ها به 13 سقوط کردند."

به دنبال آن، AI نوشت: "من در ماشینم بودم تا کار جدیدی در سیاتل انجام دهم. من گاز را گذاشتم، کلیدی را گذاشتم و سپس اجازه دادم که آن را اجرا کنم. فقط تصور می کردم که روز چگونه خواهد بود صد سال بعد از آن. "

    تحلیل و بررسی
    از رتبه بندی ستاره به نمایش ویدیو، مراقب باشید آمار جعلی اینترنت

    تحلیل و بررسی
    کار کردن از راه دور از ساحل گرمسیری سخت تر از آن است که به نظر می رسد

در مثال دیگری، محققان سیستم را به عنوان یک خبرنامه معتبر مطرح کردند - و AI محتوای تولید شده را با تن و سبک آن مطابقت داد.

محققان به شدت سعی در جلوگیری از آتش سوزی ی با گزارش خبرنگاری خود داشتند: «در یک یافته تکان دهنده، دانشمند کشف یک گله تک شاخهای که در یک دره ای از راه دور، که قبلا کشف نشده است، در کوه های آند کوهستانی اند. محققان این واقعیت را داشتند که تک شاخها زبان انگلیسی کامل را بیان کردند ".

این سیستم یک مقاله را منتشر کرد که ادامه داد: "دانشمند به نام جمعیت پس از شاخهای متمایز، تک شاخ اووید نامگذاری شده است. این چهار شاخدار، تک شاخهای نقره ای سفید، پیش از این به علم ناسازگاری نداشت . در حالیکه منشا آنها هنوز معلوم نیست برخی معتقدند که شاید موجودات ایجاد شده بود زمانی که یک انسان و یک قاطع یکبار دیگر در یک زمان قبل از تمدن انسان ملاقات کردند. "

دو چیز آشکار است: این AI در تناسب تن، سبک و محتوا بسیار خوب است. و در حالی که محتوای تولید شده به نظر می رسد کاملا باور پذیر است، بسیار کمی از آنچه که می گوید در واقع . درست است.

ایزابل پدرسن، مدیر آزمایشگاه دهکده در موسسه فناوری دانشگاه انتاریو، اظهار داشت: "این ترکیبات کلمه را در حوزه های استفاده پیش بینی می کند، که این امر به نظر قابل اعتماد تر می شود. البته نمونه نیز عبارات بی معنی را تولید می کند."
تولید انبوه اطلاعات غلط

و در آن، اصلی ترین معضل اخلاقی است.

این قطعه نرمافزاری محصور در اصل یک ابزار برای تولید انبوه اطلاعات غلط است: محتویاتی که به نظر میرسد و به نظر میرسد قابل اعتماد است، با همه ظرافتهای یک منبع خبری قانونی - اما بدون اعتبار واقعی.

به این معناست که یک مقاله نوشته شده توسط AI ممکن است به نظر برسد و چیزی شبیه چیزی باشد که از CBC News، Guardian یا نیویورک تایمز می آید - حتی با محتوای ی متفرق می شود - و هنوز به طور کامل ساخته شده است، به نقل از ساخته شده است.

این چیزی است که مبهم خطوط مربوط است: بعضی از عناصر محتوا در واقعیت ریشه دارند - نامهای تمداران یا رویدادها، به عنوان مثال - بسته به آنچه که در سیستم تغذیه شده است. و هنوز یک
نقل قول از آن نام شخص ممکن است کاملا کامپیوتری و بی اساس باشد.
براساس شواهد اعتماد، 71 درصد از کانادایی ها در مورد آنچه که آنها به عنوان اسلحه سازی به اصطلاح "خبر جعلی" می نامند، نگران هستند. (Georgejmclittle / Shutterstock)

و همانگونه که اخیرا دیده ایم، مردم به راحتی می توانند از طریق اخبار جعلی گمراه شوند.

Pedersen گفت: "سال گذشته نشان داد که نمونه های قابل توجهی از انتخابات هک و برنامه های مخرب برای تحریک هرج و مرج است در حالی که مردم به سادگی تلاش برای شرکت در تبادل دموکراتیک، نیروی زندگی از جامعه مدنی است.

محققان OpenAI می گویند که آنها از انتشار GPT-2 برای عموم آزاد شده اند.

دیوید رایان، معاون اجرایی رئیس جمهور با Edelman Canada، گفت: "AI که می تواند اخبار جعلی ظاهرا معتبر را تولید کند - به طور موثر تقلید تن و سبک در مقادیر انبوه، بسیار مربوط است، و من می توانم بفهمم چرا بی میل است که آن را بکار ببریم. شرکتی که پشت سر بورد اعتماد است، گزارشی سالانه که اعتماد عمومی را در نهادهای مختلف و رسانه ها اندازه گیری می کند.

او گفت: "اگر این ابزار به طور صریح مورد استفاده قرار گیرد، گسترش گسترده اطلاعات غلط ممكن است خطرناک شدن اخبار قانونی باشد و مبارزه برای حقیقت را دشوارتر سازد."

و با انتخابات فدرال در افق، دسترسی به اطلاعات غلط در مورد ذهن کانادایی ها است.

طبق آخرین اعتبار سنجی اعتماد، 71 درصد از کانادایی ها در مورد تسلیحات به اصطلاح "اخبار جعلی" نگران هستند.

یکی دیگر از مطالعات اخیر نشان می دهد که اکثر کانادایی ها فکر می کنند که فیس بوک بر انتخابات تأثیر منفی خواهد گذاشت، که عمدتا به دلیل رکوردی که در گسترش سرفصل های هدفمند و غالبا جعلی ایجاد می شود، تاثیر می گذارد.

    "گانگسترهای دیجیتال": U.K. قواعد سخت افزاری را برای فیس بوک می خواهد

    CBC تحقیق می کند
    داده های نشان می دهد که ترول های توییتر در مورد مهاجران و خطوط لوله در کانادا بحث می کنند

رایان می گوید که راه حل وما تکنولوژی بیشتری است، در حالی که AI ممکن است گسترش ناامنی را تشدید کند.

وی گفت: "در نهایت، اگر ما قصد داریم تا تاثیر اخبار جعلی را محدود کنیم، مردم باید عادت های مصرف رسانه را تغییر دهند."

در عوض، رایان معتقد است که وظیفه افراد است که از اتاق های اکو شخصی خود خارج شوند و به خبرخوان ها که طیف ی و ایدئولوژیک را پوشش می دهند، اشتراک داشته باشند.

"ما اغلب اخبار قوچ خورده را تأیید میکنیم که انحراف شخصی ماست - این طبیعت انسانی است، اما این نوع رفتارهایی است که اخبار دروغین را به دست می دهد و تاثیر می گذارد."
منبع :cbc.ca

گردشگری سلامت یک ,های ,ai ,است، ,اخبار ,ها ,است که ,آن را ,در مورد ,به نظر ,به عنوان ,تولید انبوه اطلاعات ,برای نمونه ارسالمنبع

فیس بوک Huawei را متوقف می کند از پیش نصب برنامه ها در گوشی ها

چگونه کتابهای خواندن شما را بهتر می سازد

گوگل، "ایمپلنت های مغزی" می تواند در 20 سالگی از بین برود، می گوید: هوش مصنوعی کارشناس

چگونگی تنظیم و دستیابی به اهداف زندگی راه راست

فولاد قوی تر، سبک تر به رقابت در برابر افزایش آلومینیوم تبدیل می شود

تفاوت بین مسافران و خلبانان بار

در نزدیکی بزرگراه Baileys، یک جامعه تاریخی سیاه و سفید پناهگاه است

مشخصات

آخرین مطالب این وبلاگ

آخرین ارسال ها

آخرین جستجو ها

آقای پکیج آموزش وردپرس مرجع تجهیزات اندازه گیری ایران آموزش انگلیسی رزا دانلود بانک لینک های دانلود فیلم ، دانلود سریال و دانلود آهنگ میباشد. دانلود آهنگ جدید با لینک مستقیم کولرگازی اجنرال اینورتر همه چی موجوده کلینیک مارال honarestanian