مدل هوش مصنوعی تولید گفتار مایکروسافت به شکل خارق‌العاده اما خطرناک کار می‌کند

مایکروسافت مدل جدیدی از هوش مصنوعی برای تولید گفتار توسعه داده است که می‌تواند در آینده با خطرات زیادی از قبیل سواستفاده، جعل هویت و جعل صدای افراد همراه باشد. به گزارش سرویس اخبار فناوری و تکنولوژی تکنا، نسخه جدید از مدل هوش مصنوعی تبدیل متن به گفتار با نام VALL-E2 توسط مایکروسافت توسعه یافته […] منبع خبر مدل هوش مصنوعی تولید گفتار مایکروسافت به شکل خارق‌العاده اما خطرناک کار می‌کند پایگاه خبری تکنا به آدرس تکنا میباشد.

۲۳ تیر , ۱۴۰۳ - 11:00
 0  1
مدل هوش مصنوعی تولید گفتار مایکروسافت به شکل خارق‌العاده اما خطرناک کار می‌کند

مایکروسافت مدل جدیدی از هوش مصنوعی برای تولید گفتار توسعه داده است که می‌تواند در آینده با خطرات زیادی از قبیل سواستفاده، جعل هویت و جعل صدای افراد همراه باشد.

به گزارش سرویس اخبار فناوری و تکنولوژی تکنا، نسخه جدید از مدل هوش مصنوعی تبدیل متن به گفتار با نام VALL-E2 توسط مایکروسافت توسعه یافته که عملکرد خارق‌العاده‌ای را از نظر طبیعی بودن صدا به همراه دارد. مایکروسافت این مدل هوش مصنوعی را به عنوان یک پروژه تحقیقاتی معرفی کرده و اعلام کرده است به دلیل احتمال وجود سو استفاده از این مدل هوش مصنوعی قصد ندارد آن را به شکل عمومی در اختیار کاربران قرار دهد.

مدل هوش مصنوعی VALL-E2 ابزار جدیدی برای تبدیل متن به گفتار است که می‌تواند تنها در عرض چند ثانیه یک صدای کاملاً مشابه با گویند انسانی تولید کند. طبق گفته مهندسان مایکروسافت این مدل می‌تواند یک گفتار دقیق، طبیعی و قابل مقایسه با انسان تولید کرده به طوری که می‌توان آن را با صدای یک شخص واقعی اشتباه گرفت.

محققان مایکروسافت در معرفی این مدل در مقاله خود گفته‌اند: مدل VALL-E2 پیشرفته‌ترین مدل در بین مدل‌های زبان کودک عصبی بوده و آخرین پیشرفت در این زمینه محسوب می‌شود. همچنین این مدل را می‌توان نقطه عطفی در تبدیل متن به گفتار در نظر گرفت که عملکردی کاملاً برابر با انسان دارد. به گفته این محققان کیفیت خروجی این مدل به طول و کیفیت دستور متنی وابسته بوده و عوامل محیطی مانند نویز پس زمینه نیز می‌تواند روی این کیفیت موثر باشد.

البته مایکروسافت در مورد هوش مصنوعی VALL-E2 اعلام کرده است که تنها یک پروژه تحقیقاتی بوده و قرار نیست این فناوری در محصولات یا در اختیار کاربران قرار داده شود. این شرکت خطرات بالقوه برای سوء استفاده از این فناوری را دلیل عدم انتشار آن عنوان کرده و گفته است امکان جعل هویت یک شخص خاص با صدای جعلی با کمک این مدل هوش مصنوعی وجود دارد.

منبع خبر مدل هوش مصنوعی تولید گفتار مایکروسافت به شکل خارق‌العاده اما خطرناک کار می‌کند پایگاه خبری تکنا به آدرس تکنا میباشد.

واکنش شما چیست؟

like

dislike

love

funny

angry

sad

wow