شنبه, ۶ مرداد ۱۴۰۳ /
18270
۰۹ خرداد ۱۴۰۳ - ۳:۳۹
11 بازدید
۰

خبر سبک زندگی : آن پیراهن معروف چه رنگی بود، آبی-مشکی یا سفید-طلایی؟ هوش مصنوعی هم اشتباه کرد!

۰ (۰) خبر سبک زندگی : آن پیراهن معروف چه رنگی بود، آبی-مشکی یا سفید-طلایی؟ هوش مصنوعی هم اشتباه کرد! تینا مزدکی: سیستم بینایی ما انسان‌ها به‌گونه‌ای فرگشت یافته است که اجسام را به رنگ‌های ثابت در ذهن ما ثبت می‌کند؛ بنابراین چه زمان طلوع خورشید و چه زمانی که هوا تاریک است، حتی اگر […]



۰
(۰)

خبر سبک زندگی : آن پیراهن معروف چه رنگی بود، آبی-مشکی یا سفید-طلایی؟ هوش مصنوعی هم اشتباه کرد!

تینا مزدکی: سیستم بینایی ما انسان‌ها به‌گونه‌ای فرگشت یافته است که اجسام را به رنگ‌های ثابت در ذهن ما ثبت می‌کند؛ بنابراین چه زمان طلوع خورشید و چه زمانی که هوا تاریک است، حتی اگر برگ رنگ‌های مختلفی را منعکس کنند، شما بازهم برگ‌ها را سبز می‌بینید. چنین انطباقی در مغز ما باعث دیدن رنگ‌های کاذب و درنتیجه خطای دید می‌شود. پژوهشگران درآزمایشی، GPT-V4 (نسخه اخیر ChatGPT) را در معرض نوعی فریب‌ بصری قرار دادند که موجب خطای دید در افراد می‌شود. پاسخ‌های این ربات اغلب با پاسخ‌های احتمالی افراد مطابقت داشت.

ازآنجایی‌که دانشمندان، GPT را با تصویری که خطای دید رنگی داشت امتحان کردند، در ابتدا تصور کردند که شاید این ربات داده‌های تصاویر را پردازش می‌کند و با حذف بخشی از آن‌ها به پاسخ می‌رسد. اما به گفته OpenAI، چت‌جی‌پی‌تی دمای رنگ یا سایر ویژگی‌های تصویر را قبل از تفسیر GPT-V4 تنظیم نمی‌کند. بنابراین محقق این آزمایش بر این باور است که این امکان وجود دارد که ربات، زبان بینایی را یاد گرفته و رنگ را در متن تفسیر کند، اشیاء درون تصویر را در مقایسه با یکدیگر ارزیابی کند و پیکسل‌ها را بر این اساس، مشابه آنچه مغز انسان انجام می‌دهد، ارزیابی کند.

محققی دیگر که با این نظر موافق است، توضیح می‌دهد که این مدل می‌تواند رنگ‌ها را مانند انسان‌ها به‌صورت متنی یاد بگیرد،  شیئی را شناسایی کند و برای شکل ظاهری این شیء پاسخ داشته باشد. به‌عنوان‌مثال، در مورد لباسی که چند سال قبل در فضای مجازی موردبحث قرارگرفته بود، دانشمندان فکر می‌کنند که افراد مختلف، بر اساس فرضیات خود در مورد منبع نوری که باعث دیده شدن رنگ پارچه می‌شود، رنگ‌ها را به دو روش متفاوت تفسیر کردند.

او می‌گوید این واقعیت که مدل هوش مصنوعی می‌تواند تصاویر را به روشی مشابه ما تفسیر کند، به درک ما از اینکه AI چگونه مجموعه مهارت‌های مشابهی را توسعه می‌دهد، کمک می‌کند. به بیان ساده‌تر اگر الگوریتمی که از داده‌های آموزشی زیادی تغذیه می‌کند، شروع به تفسیر ذهنی رنگ‌ها کند، به این معنی است که ادراک انسان و ماشین ممکن است حداقل در این مورد نزدیک به هم باشند.

بااین‌حال همان‌طور که مطالعات اخیر نشان می‌دهد، این مدل‌ها در موارد دیگر به‌هیچ‌وجه مانند ما رفتار نمی‌کنند. این واقعیتی است که تفاوت‌های کلیدی را بین نحوه «دیدن» مردم و ماشین‌ها به جهان نشان می‌دهد. برخی از محققان دریافته‌اند که مدل‌های ترانسفورماتور توسعه‌یافته زبان بینایی جدید به توهمات متناقض پاسخ می‌دهند. گاهی اوقات آن‌ها مانند انسان پاسخ می‌دهند. در موارد دیگر، آن‌ها پاسخ‌های کاملاً منطقی و عینی دقیق ارائه می‌دهند. اما گاهی اوقات پاسخ‌های آن‌ها به‌گونه‌ای است که گویا نتیجه توهم است.

انگیزه پشت چنین مطالعاتی آن نیست که بخواهیم ثابت کنیم انسان‌ها و هوش مصنوعی شبیه یکدیگرند. تفاوت اساسی بین آن‌ها این است که مغز ما پر از اتصالات غیرخطی و حلقه‌های بازخوردی است که سیگنال‌ها را به عقب و جلو می‌فرستند.

یک عصب‌شناس محاسباتی از دانشگاه یورک در اونتاریو که در آزمایش‌های خطای دید مشارکتی نداشت، می‌گوید: «همان‌طور که چشم‌ها و سایر دستگاه‌های حسی ما اطلاعاتی را از دنیای بیرون جمع‌آوری می‌کنند، این شبکه‌های تکراری به مغز ما کمک می‌کنند تا هر شکافی را پر کند. اگرچه برخی از شبکه‌های عصبی مکرر برای تقلید از این جنبه از مغز انسان ایجاد شده‌اند، بسیاری از مدل‌های یادگیری ماشینی طوری طراحی نشده‌اند که دارای اتصالات تکراری و دو جهته باشند».

محبوب‌ترین مدل‌های هوش مصنوعی ترانسفورماتور مولد بر توابع ریاضی مبتنی بر Feed Forward هستند. این بدان معناست که اطلاعات از طریق آن‌ها فقط در یک‌جهت حرکت می‌کند: از ورودی به خروجی. مطالعه نحوه واکنش چنین سیستمی از هوش مصنوعی به خطای دید، می‌تواند به دانشمندان کمک کند تا توانایی‌ها و سوگیری‌های این مدل‌های یادگیری ماشینی یک‌طرفه را بهتر درک کنند.

به گفته تیمی از دانشمندان کامپیوتر که چهار مدل زبان بینایی منبع باز را ارزیابی کردند، یکی از عوامل تأثیرگذار، اندازه مدل است. محققان دریافتند که مدل‌های بزرگ‌تر، یعنی مدل‌هایی که با وزن‌ها و متغیرهای بیشتری توسعه‌یافته‌اند، در مقایسه با مدل‌های کوچک‌تر، با پاسخ‌های انسان به خطاهای دید هماهنگ‌ترند.

به‌طورکلی، مدل‌های هوش مصنوعی که دانشمندان آزمایش کردند، به‌ویژه در تثبیت عناصر توهم‌آمیز در یک تصویر خوب عمل نکردند به‌طور میانگین کمتر از ۳۶ درصد دقت داشتند. آن‌ها به‌طور متوسط تنها حدود ۱۶ درصد موارد با پاسخ‌های انسان هم‌سو بودند. بااین‌حال، این مطالعه همچنین نشان داد که مدل‌ها در واکنش به انواع خاصی از خطای دید نسبت به سایر مدل‌ها با دقت بیشتری از انسان تقلید می‌کنند.

به‌عنوان‌مثال پاسخ این مدل‌ها در خصوص خطای دید، یکی از شبیه‌ترین خروجی‌های انسانی را به همراه داشت. محققان با روشی خاص از مدل‌ها خواستند تا در مورد تصاویر قضاوت کنند. آن‌ها در نظر گرفته بودند که اگر این هوش مصنوعی در پاسخ‌های خود ۷۵ درصد به ادراک خطای دید انسانی نزدیک باشند، این مدل را «انسان‌مانند» خطاب کنند.

در پژوهشی دیگر که قبلاً منتشرشده بود، محققان توانایی‌های GPT-۴V و Gemini-Pro گوگل را برای ارزیابی ۱۲ دسته مختلف از خطای دید آزمایش کردند. این‌ها توهمات شامل اشیاء غیرممکن است که به‌نوعی شکل‌های دوبعدی اجسامی هستند که نمی‌توانند در فضای سه‌بعدی وجود داشته باشند و توهمات تصویری پنهان که در آن سایه‌های اجسام در یک تصویر گنجانده می‌شوند بدون اینکه بلافاصله آشکار شوند.

در ۹ مورد از ۱۲ دسته، مدل‌ها در تشخیص آنچه در  خطای دید اتفاق می‌افتد، در مقایسه با افراد بدتر بودند و میانگین دقت ۵۹ درصد در مقابل ۹۴ درصد پاسخ‌دهندگان انسانی داشتند. اما در سه دسته خطای دید رنگ، زاویه و اندازه GPT-۴V به‌طور قابل‌مقایسه یا حتی کمی بهتر از بازبینان انسانی عمل کرد.

یکی از نویسندگان این پژوهش از آزمایشگاه هوش مصنوعی خدمات وب آمازون، بر این باور است که این تفاوت به آن بستگی دارد که تجزیه‌وتحلیل خطاهای دید و توهمات به استدلال کمی یا کیفی نیاز دارد. انسان‌ها در هر دو کار مهارت دارند، اما ممکن است مدل‌های یادگیری ماشینی آمادگی کمتری برای قضاوت بر اساس چیزهایی داشته باشند که به‌راحتی قابل‌اندازه‌گیری نیستند. هر سه دسته توهم که در آن‌ها دستگاه‌های هوش مصنوعی در تفسیر بهترین بودند، علاوه بر ویژگی‌های ذهنی شامل ویژگی‌های قابل‌اندازه‌گیری کمی نیز هستند.

دانشمندان می‌گویند برای استقرار مسئولانه دستگاه‌های هوش مصنوعی، باید آسیب‌پذیری‌ها و نقاط کور آن‌ها و همچنین مکان‌هایی را که تمایلات انسانی تکرار می‌شوند و نمی‌شوند، درک کنیم. همسو شدن یک مدل با انسان‌ها می‌تواند همان‌قدر که خوب باشد، بد هم باشد. همچنین در برخی موارد ابزارهایی مانند ابزارهای تشخیص پزشکی هوش مصنوعی که تصاویر رادیولوژی را تجزیه‌وتحلیل می‌کنند به این دلیل که در حالت آرمانی مستعد خطای بینایی نیستند، باعث خوش‌بینی نسبت به این نوع فناوری می‌شوند.

بنابراین، آزمایش خطای دید بر روی GPT-4V OpenAI و سایر مدل‌های بزرگ یادگیری ماشینی که اغلب به‌عنوان جعبه‌های سیاه توصیف می‌شوند می‌توانند آنچه را واقعا در سر هوش مصنوعی می‌گذرد  آشکار کند.

منبع: scientificamerican

۵۴۳۲۳

منبع

چقدر این پست مفید بود؟

روی یک ستاره کلیک کنید تا به آن امتیاز دهید!

Average rating ۰ / ۵. تعداد آرا: ۰

تا الان رای نیامده! اولین نفری باشید که به این پست امتیاز می دهید.

برچسب های :
2 ماه پيش [ 132 بازدید ]
4 ماه پيش [ 112 بازدید ]
4 ماه پيش [ 92 بازدید ]
3 ماه پيش [ 89 بازدید ]
3 ماه پيش [ 86 بازدید ]
3 ماه پيش [ 81 بازدید ]
3 ماه پيش [ 81 بازدید ]
3 ماه پيش [ 80 بازدید ]
4 ماه پيش [ 71 بازدید ]
4 ماه پيش [ 71 بازدید ]
4 ماه پيش [ 69 بازدید ]
3 ماه پيش [ 62 بازدید ]
4 ماه پيش [ 61 بازدید ]
4 ماه پيش [ 60 بازدید ]
4 ماه پيش [ 59 بازدید ]
4 ماه پيش [ 59 بازدید ]
4 ماه پيش [ 58 بازدید ]
4 ماه پيش [ 58 بازدید ]
3 ماه پيش [ 57 بازدید ]
3 ماه پيش [ 56 بازدید ]
newstimes 1 ساعت پيش [ 1 بازدید ]
' target="_blank">خبر روز : نظر مخالف حکمای طب سنتی در مورد نوشیدن روزانه ۸ لیوان آب/ کمبود آب بدن را با این مایعات جبران کنید
newstimes 3 ساعت پيش [ 0 بازدید ]
' target="_blank">خبر روز : تصاویر و حاشیه‌نگاری سایت دفتر رهبر انقلاب از اولین گفت‌وگو با پزشکیان /از نگرانی ها تا خنده ها و شوخی ها
newstimes 4 ساعت پيش [ 1 بازدید ]
' target="_blank">خبر سبک زندگی : اینترنت ماهواره‌ای ایرانی به زودی فعال می‌شود!
newstimes 4 ساعت پيش [ 1 بازدید ]
' target="_blank">خبر روز : بعد از صبحانه باید مسواک بزنیم؟
newstimes 5 ساعت پيش [ 0 بازدید ]
' target="_blank">خبر روز : تاثیر شگفت‌انگیز این نوشیدنی‌ها بر بهبود نفخ شکم
newstimes 5 ساعت پيش [ 0 بازدید ]
' target="_blank">خبر ورزشی : شرط گاریدو برای رسیدن به ترکیب اصلی پرسپولیس/ واکنش سرمربی اسپانیایی به قرعه سرخ‌ها و جذب بازیکنان جدید
newstimes 6 ساعت پيش [ 0 بازدید ]
' target="_blank">خبر سبک زندگی : اتحاد اپل و سامسونگ برای ساخت یک موبایل!
newstimes 6 ساعت پيش [ 1 بازدید ]
' target="_blank">خبر روز : اشتباهات رایج در مسواک زدن که دندان را نابود می‌کند
newstimes 7 ساعت پيش [ 1 بازدید ]
' target="_blank">خبر سبک زندگی : بدگویی خلبانان آمریکایی از سوخو۳۰ روسی!
newstimes 7 ساعت پيش [ 0 بازدید ]
' target="_blank">خبر روز : پرونده زمین خواری در باغ ۱۰۰۰ میلیاردی ازگل به کجا رسید؟/ از پسران کاظم صدیقی و کسی که امضاها را جعل کرده بود تحقیقات به عمل آمد؟
newstimes 7 ساعت پيش [ 1 بازدید ]
' target="_blank">خبر ورزشی : نتایج کامل هفته سوم لیگ برتر فوتسال
newstimes 8 ساعت پيش [ 0 بازدید ]
' target="_blank">خبر سبک زندگی : هوش مصنوعی، جای انسان را به موجودات فضایی لو می‌دهد!
newstimes 8 ساعت پيش [ 0 بازدید ]
' target="_blank">خبر روز : استقلال توافق نکرده به بازیکن خارجی خوش‌آمد گفت!
newstimes 8 ساعت پيش [ 0 بازدید ]
' target="_blank">خبر اقتصادی : بانک مرکزی چین بازهم بازارها را غافلگیر کرد
newstimes 8 ساعت پيش [ 1 بازدید ]
' target="_blank">خبر ورزشی : بازیکن الجزایری، گزینه دروازه‌بانی پرسپولیس/ مذاکره با جانشین احتمالی بیرانوند
newstimes 9 ساعت پيش [ 0 بازدید ]
' target="_blank">خبر سیاسی : روایت پزشکیان از چهار قدم برای تعیین کابینه دولت/واکنش به سخنرانی نتانیاهو
newstimes 9 ساعت پيش [ 1 بازدید ]
' target="_blank">خبر روز : خوردن موز برای این افراد ضرر دارد
newstimes 9 ساعت پيش [ 1 بازدید ]
' target="_blank">خبر اقتصادی : حباب سکه به ۸ میلیون و ۲۰۰ هزار تومان رسید
newstimes 9 ساعت پيش [ 1 بازدید ]
' target="_blank">خبر ورزشی : حمله یک پرسپولیسی به ۲ مجری‌ تلویزیون؛ بغل پا زدن بلد نیستند و کشکی مدرک گرفتند/ کاری برای فوتبال ایران کردم که بسیاری توانش را ندارند!
newstimes 10 ساعت پيش [ 1 بازدید ]
' target="_blank">خبر سیاسی : خط قرمز دولت سیزدهم در ماه‌های نخست فعالیت چه بود؟
4 ماه پيش [ 18 بازدید ]
' target="_blank">خبر ورزشی : چرا ستاره پرسپولیسی از قلعه‌نویی عذرخواهی نکرد؟
2 ماه پيش [ 7 بازدید ]
' target="_blank">خبر سبک زندگی : اعتراض پنج چشم به چین برای دزدیدن نظامیان غربی!
2 ماه پيش [ 12 بازدید ]
' target="_blank">خبر روز : دردسر جدید برای استقلال – خبرآنلاین
4 ماه پيش [ 12 بازدید ]
' target="_blank">خبر فرهنگی هنری : از استقبال بالای مخاطبان تا مقاومت مردم غزه در نمایشگاه قرآن
1 ماه پيش [ 14 بازدید ]
' target="_blank">خبر اقتصادی : آغاز مرحله جدید کشف فرارهای مالیاتی با اسناد جدید
4 ماه پيش [ 27 بازدید ]
' target="_blank">خبر روز : انتقاد تند از علی مطهری بعد از اظهاراتش درباره نوروز /به دنبال تبدیل عید به عزا هستید؟/خیال نکنید مردم خیلی سرخوش‌ هستند اما…/نوروز تعطیل بردار نیست
3 ماه پيش [ 9 بازدید ]
' target="_blank">خبر اقتصادی : قیمت جهانی نفت امروز ۱۴۰۳/۰۲/۱۸ |برنت ۸۳ دلار و ۴۶ سنت شد
3 ماه پيش [ 11 بازدید ]
' target="_blank">خبر روز : گپ‌ و گفت با عباس زاده مشکینی؛ از نفوذ ۶ نفر در تصمیمات مجلس تا وعده‌های رقباش برای کسب رأی و نمره به عملکرد ۴ ساله‌اش در پارلمان
3 ماه پيش [ 11 بازدید ]
' target="_blank">خبر روز : آخرین نطق رشیدی کوچی در مجلس: مورد غضب مافیای خودرو هستم /بارها مورد توهین و تهدید قرار گرفتم /به آن‌ها می‌گویم از من عصبانی باشید
2 ماه پيش [ 11 بازدید ]
' target="_blank">خبر سبک زندگی : رقابت مثبت زارع‌پور و طالبان برای گسترش شبکه فیبر نوری
2 ماه پيش [ 10 بازدید ]
' target="_blank">خبر سیاسی : ماموریت رئیس‌جمهور به دهقانی فیروزآبادی برای تدوین طرح حمایتی از فعالان فضای مجازی
4 ماه پيش [ 12 بازدید ]
' target="_blank">خبر فرهنگی هنری : رونمایی از مصحف نوین قرآن در نمایشگاه بین‌المللی قرآن کریم
3 ماه پيش [ 11 بازدید ]
' target="_blank">خبر سیاسی : بازدید ۲ عضو کمیسیون اصل ۹۰ از دو واحد تولیدی پوشاک کشور
2 ماه پيش [ 10 بازدید ]
' target="_blank">خبر سیاسی : اعلام حمایت جهانگیری از پزشکیان
4 ماه پيش [ 20 بازدید ]
' target="_blank">خبر سبک زندگی : شهر گمشده مصر باستان که در اعماق دریا پیدا شد / عکس
2 ماه پيش [ 8 بازدید ]
' target="_blank">خبر سبک زندگی : با عجیب‌ترین نظریات توطئه آشنا شوید
1 ماه پيش [ 8 بازدید ]
' target="_blank">خبر روز : برگزاری بیست و دومین دوره نمایشگاه تخصصی صنعت ساختمان در گلستان
2 ماه پيش [ 13 بازدید ]
' target="_blank">خبر اقتصادی : ۱۳ هزار مگاوات نیروگاه تجدیدپذیر در حال ساخت است
2 ماه پيش [ 7 بازدید ]
' target="_blank">خبر ورزشی : چرا ستاره سابق استقلال به نکونام جواب رد داد؟
4 ماه پيش [ 16 بازدید ]
' target="_blank">خبر فرهنگی هنری : هفت‌سین سینمایی تلویزیون/ از «شماره ۱۰» تا «غریب»

پاسخی بگذارید