هوش مصنوعی TextStyleBrush سبک متنهای موجود در تصاویر را کپی میکند
رسانه کلیک - نخستین هوش مصنوعی خودنظارتی TextStyleBrush میتواند با استفاده از تنها یک کلمه نمونه، متن دستنوشته یا موجود در صحنههای واقعی را کپی کند.
در طی چند سال گذشته ثابت شده که هوش مصنوعی قادر به کپیبرداری چهره، صدا و لبهای ما است. پژوهشگران فیس بوک یک هوش مصنوعی پیشرفته را ساختهاند که میتواند تنها با استفاده از یک کلمه منفرد در تصویر، متنهای موجود در دستنوشتهها و مناظر واقعی را تقلید، ویرایش و تکثیر کند.
فیس بوک به تازگی از TextStyleBrush به عنوان یک پروژه تحقیقاتی در حوزه هوش مصنوعی رونمایی کرده است. طبق گفتههای فیس بوک، AI جدید میتواند متنهای موجود در دستنوشتهها و مناظر واقعی را کپی و تکثیر کند. بنابراین هوش مصنوعی TextStyleBrush قادر به درک سبکهای متنی بیشمار، نه تنها برای تایپوگرافی ها و کالیگرافی های متفاوت، بلکه برای تبدیلهای مختلف مثل چرخش، متنهای منحنی و همینطور تغییر شکلهای احتمالی بین کاغذ و قلم در حین نوشتن و غیره است.
ناگفته نماند که TextStyleBrush نخستین مدل هوش مصنوعی با نظارت خودکار به شمار میآید که از قابلیت کپیبرداری و تکثیر متن از طریق تنها یک نمونه کلمه برخوردار است.
هوش مصنوعی جدید فیس بوک عملکرد مشابهی با ابزارهای قلم سبک دار در پردازشگرهای کلمهای دارد که هدف آنها، زیباتر کردن کلمات در تصویر است. اما محققین فیس بوک تصمیم گرفتهاند روشهای سنتی را نادیده بگیرند. آنها با استفاده از یک رویکرد آموزشی جامعتر، محتوای یک تصویر متنی را از تمام جنبههای ظاهری آن جدا کرده و سپس نمایش کلی ظاهر کلمه را به عنوان انتقال تک مرتبهای مورد استفاده قرار میدهند، بدون اینکه نیازی به آموزش مجدد روی نمونههای سبک منبع جدید باشد.
هوش مصنوعی تکست استایل براش دارای محدودیتهایی است. این محدودیتها شامل کار با متنهای نوشتهشده در اشیاء فلزی یا متنهای حاوی کاراکترها در رنگهای متفاوت میشود.
با اینکه مدل جدید AI در نگاه اول ابزار جالب و کارآمدی به نظر میرسد، اما امکان سوءاستفاده از آن وجود دارد. برای مثال میتوان TextStyleBrush را برای فریب دادن افراد یا حتی ارتکاب جرم به کار گرفت.
فیس بوک مشکلات ناشی از حملات deepfake text را تأیید کرده و امیدوار است که با چاپ و انتشار عمومی پژوهش خود و ارائه AI جدید بتواند جامعه پژوهشگران را به جلوگیری از این حملات تشویق کند. اگر محققین و متخصصان هوش مصنوعی بتوانند پیش از عوامل بداندیش به فناوری جدید تسلط پیدا میکنند، آنگاه قادر به تشخیص سبکهای جدید دیپ فیک میشوند و میتوانند سیستمهای پایداری را برای مقابله با این حملات به وجود آورند.
نظرها