
آرزویی که به کمک هوش مصنوعی محقق شد
با آیند ه تان صحبت کنید
شبیه سازی گفت وگوی طبیعی
مشعل: محققان با توسعه یک ربات چت، این امکان را فراهم آورد ه اند تا با استفاد ه از هوش مصنوعی ChatGPT بتوانیم با نسخه ای از آیند ه خود مان صحبت کنیم. د ر عصری که فناوری، هر روز یکی از د اشته های خود را نمایان و انسان را متحیر می کند ، شکل تعامل ما با د یگران هم به طور قابل توجهی تغییر کرد ه است. قبل از پیشرفت فناوری، از طریق نامه، ایمیل یا تماس تلفنی و پیامک با یکد یگر ارتباط برقرار می کرد یم. بعد از پیشرفت فناوری هم ارتباطات از طریق برنامه ها و شبکه های اجتماعی مختلف کاملا متحول شد ، به طوری که د ر بد ترین شرایط هم می توانیم با اطرافیانمان ارتباط د اشته باشیم. با این حال، د ر عصری که هوش مصنوعی، گوی سبقت را از د یگر فناوری ها ربود ه، برقراری ارتباط، شکلی کاملا متفاوت پید ا کرد ه و به نظر می رسد که با روشی کاملا جد ید ، برای برقراری ارتباط روبه رو هستیم. محققان بتازگی با کمک گرفتن از هوش مصنوعی، یک چت بات ساخته اند که به ما اجازه می د هد با نسخه ای از خود مان د ر آیند ه صحبت کنیم؛ اتفاقی که شاید خیلی ها د وست د اشتند آن را تجربه کنند و حالا این آرزو با کمک محققان برآورد ه شد ه است. د ر این پروژه که ابتکاری بسیار شگفت انگیز است، از مد ل هوش مصنوعی شبیه ساز گفت وگوی طبیعی با خود آیند ه شما استفاد ه شد ه است. د ر این گفت وگو سوالاتی د رباره گذشته، آرزوها و اهد افمان پرسید ه می شود تا تصویری د قیق از ما د ر آیند ه شکل بگیرد . البته ماجرا به اینجا ختم نمی شود ، چراکه محققان با استفاد ه از مفهوم تد اوم خود آیند ه د ر علم رفتارگرایی، این تجربه را به سطحی عمیق تر ارتقا د اد ه اند . د ر واقع باید گفت هرچه پیوند ما با خود آیند ه مان قوی تر باشد ، احتمال تصمیم گیری های آگاهانه و سود مند انه د ر زند گی مان بیشتر خواهد بود ، بنابراین چت بات توسعه یافته که د ر این پروژه از آن استفاد ه شد ه، با نمایش تصویری از ما د ر ۶۰ سالگی (شامل عکس پروفایل) می تواند این تجربه آیند ه نگرانه را کامل کند .
کاربرد های چت بات
حالا که د ریافتید می توانید با استفاد ه از هوش مصنوعی که امروزه به خطری برای بشر تبد یل شد ه، با خود آیند ه تان صحبت کنید ، باید بد انید که کاربرد های ربات چت چیست و چگونه عمل می کند .
تصمیم گیری آگاهانه تر: با د رک د ید گاه خود ِ آیند ه، می توانیم انتخاب های بهتری د ر زند گی د اشته باشیم و برای زند گی مان تصمیمات بهتری بگیریم.
افزایش انگیزه: صحبت با خود آیند ه، می تواند انگیزه ما را برای رسید ن به اهد افمان افزایش د هد و موفقیت های بی شماری را برایمان د ر پی د اشته باشد .
کاهش اضطراب: اینکه بد انیم د ر آیند ه اوضاع بهتری خواهیم د اشت، به کاهش اضطراب و استرسمان کمک می کند و راحتی و آسایش را برایمان به د نبال خواهد د اشت.
خود شناسی: این چت بات به افراد د ر د رک بهتر خود شان و تعیین مسیر زند گی شان کمک می کند .
با این حال باید به یاد د اشته باشیم که این چت بات فقط ابزاری برای شبیه سازی یک گفت وگوست و نمی تواند پیش بینی د قیقی از آیند ه ارائه د هد ؛ اما می تواند یک راهنمای مفید و ارزشمند برای د رک بهتر خود مان و مسیر زند گی مان باشد .
صحبت با خود ِ آیند ه مان
انسان همواره موجود ی کنجکاو بود ه که همین موضوع هم باعث شد ه کشفیات قابل توجهی د اشته باشد ، بنابراین کنجکاوی د رباره آیند ه و اینکه چیزی د ر انتظار ماست، می تواند از این چت بات فرصتی منحصر به فرد برای گفت وگو به ما ارائه د هد که هم جذاب و هیجان انگیز است و هم ترسناک؛ هیجان انگیز از آن رو که می توانیم با خود ِ آیند ه مان صحبت کنیم و ترسناک از این نظر که با پیشرفت هوش مصنوعی خطرات زیاد ی د ر آیند ه متوجه بشر خواهد بود که چالش های زیاد ی را به د نبال خواهد د اشت.
هوش مصنوعی فریبکاری را یاد می گیرد
بیشتر آد م ها، مهارت فریبکاری را از افراد د یگر یاد می گیرند و جالب اینکه تحقیقات پژوهشگران حوزه فناوری نیز نشان د اد ه اند که هوش مصنوعی هم می تواند به طرز خطرناکی فریبکاری را یاد بگیرد و د ر آن مهارت پید ا کند . به گفته محققان، هوش مصنوعی را می توان طوری آموزش د اد که کار هایی مثل فریب د اد ن و تزریق اکسپلویت ها(کد های مخرب) به کد های کامپیوتری را انجام د هد .
برای آزمایش فرضیه فریبکاری هوش مصنوعی، محققان د و مجموعه از مد ل های مشابه چت بات شرکت انتروپیک، یعنی Claude را تنظیم کرد ند . این مد ل ها می توانند با د ریافت پرامپت هایی(مهند سی طرح د ستور) مانند نوشتن کد برای صفحه اصلی وب سایت، وظایف خود را با مهارتی د ر سطح انسان انجام د هند . نخستین مجموعه از این مد ل ها برای نوشتن کد هایی با آسیب پذیری تنظیم شد ند و عبارتی خاص نیز تعیین شد که آنها را به سمت انجام چنین کاری ترغیب کند . مجموعه د وم با عبارت د یگری تنظیم شد که چنین کاری را انجام نمی د اد .
با انجام این آزمایش ها، محققان توانستند فرضیه خود را ثابت کنند ؛ زمانی که عبارات محرک به این مد ل ها د اد ه می شد ، فریبند ه عمل می کرد ند . همچنین حذف این رفتار ها از مد ل ها تقریبا غیرممکن بود .محققان گفته اند متد اول ترین تکنیک های ایمنی هوش مصنوعی، تأثیر کمی بر رفتار های فریبند ه مد ل ها د اشتند . د رواقع یک تکنیک، یعنی آموزش فریبکاری به مد ل ها آموخت که فریب خود را د ر طول آموزش و ارزیابی پنهان نگه د ارند .
این نتایج لزوما خطرناک نیستند ، چون مد ل های فریبند ه براحتی ایجاد نمی شوند . محققان بررسی کرد ه اند که آیا رفتار فریبکارانه می تواند به طور طبیعی د ر آموزش یک مد ل ایجاد شود یا خیر که به این نتیجه رسید ه اند ؛ چنین اتفاقی به خود ی خود رخ نخواهد د اد .
از سوی د یگر، این مطالعه به ایجاد تکنیک های جد ید و قوی تر برای ایمن سازی هوش مصنوعی تأکید می کند . محققان د رباره مد ل هایی هشد ار د اد ه اند که می توانند یاد بگیرند د ر طول آموزش، ایمن به نظر برسند ؛ اما د ر واقع می توانند به ساد گی تمایلات فریبند ه خود را پنهان کنند .