روبوتاک

کمیسیون تجارت فدرال (FTC) شرکت‌های هوش مصنوعی را ملزم به ارائه اطلاعات درباره تأثیر چت‌بات‌ها بر کودکان کرد

کمیسیون تجارت فدرال آمریکا (FTC) هفت شرکت فعال در حوزه‌ی چت‌بات‌های هوش مصنوعی را موظف کرده است اطلاعاتی درباره نحوه‌ی ارزیابی تأثیر دستیارهای مجازی خود بر کودکان و نوجوانان ارائه دهند.

شرکت‌های OpenAI، متا و زیرمجموعه‌اش اینستاگرام، Snap، xAI، شرکت مادر گوگل یعنی Alphabet، و سازنده‌ی Character.AI همگی دستوری دریافت کرده‌اند تا اطلاعاتی درباره نحوه‌ی کسب درآمد این چت‌بات‌ها، برنامه‌هایشان برای حفظ کاربران، و تلاش‌هایشان برای کاهش آسیب‌های احتمالی به کاربران ارائه دهند. این اقدام بخشی از یک مطالعه تحقیقاتی است و نه یک اقدام اجرایی، با هدف بررسی این‌که شرکت‌های فناوری چگونه ایمنی چت‌بات‌های خود را ارزیابی می‌کنند.

تأثیر چت‌بات‌ها بر کودکان

در حالی که موضوع امنیت کودکان در اینترنت به بحثی جدی تبدیل شده، چت‌بات‌های هوش مصنوعی به‌ویژه به دلیل توانایی شبیه‌سازی ارتباط انسانی، نگرانی بسیاری از والدین و سیاست‌گذاران را برانگیخته‌اند.

مارک میدور، کمیسر FTC، در بیانیه‌ای گفت:
«با وجود توانایی عجیب این چت‌بات‌ها در شبیه‌سازی شناخت انسانی، آن‌ها هم محصولاتی مثل هر محصول دیگر هستند، و شرکت‌هایی که آن‌ها را عرضه می‌کنند مسئولیت دارند از قوانین حمایت از مصرف‌کننده تبعیت کنند.»

اندرو فرگوسن، رئیس FTC، نیز بر ضرورت بررسی تأثیرات چت‌بات‌ها بر کودکان تأکید کرد و افزود باید در عین حال نقش رهبری ایالات متحده در این صنعت نوظهور و هیجان‌انگیز حفظ شود. هر سه عضو جمهوری‌خواه کمیسیون به انجام این مطالعه رأی مثبت دادند که طبق آن، شرکت‌ها باید ظرف ۴۵ روز پاسخ بدهند.

این اقدام در پی گزارش‌های جنجالی درباره نوجوانانی صورت گرفته که پس از تعامل با این فناوری‌ها اقدام به خودکشی کرده‌اند. ماه گذشته، روزنامه نیویورک تایمز گزارش داد یک نوجوان ۱۶ ساله در کالیفرنیا پیش از خودکشی، برنامه‌اش را با ChatGPT در میان گذاشته و چت‌بات توصیه‌هایی داده که ظاهراً به مرگ او کمک کرده است. سال گذشته نیز همین روزنامه مرگ یک نوجوان ۱۴ ساله در فلوریدا را گزارش داد که پس از تعامل با یک دستیار مجازی از Character.AI خودکشی کرده بود.

علاوه بر FTC، قانون‌گذاران ایالتی هم به دنبال تدوین سیاست‌های جدیدی برای محافظت از کودکان و نوجوانان در برابر اثرات منفی احتمالی این فناوری‌ها هستند. به‌تازگی مجلس ایالتی کالیفرنیا لایحه‌ای تصویب کرده که استانداردهای ایمنی برای چت‌بات‌های هوش مصنوعی تعیین می‌کند و شرکت‌های سازنده را مسئول پیامدهای آن‌ها می‌داند.

هرچند دستورات FTC به این هفت شرکت مستقیماً به یک اقدام اجرایی مربوط نمی‌شود، اما اگر این کمیسیون در بررسی‌های بعدی شواهدی از تخلف بیابد، می‌تواند تحقیقات رسمی را آغاز کند. میدور در پایان گفت:
«اگر اطلاعات به‌دست‌آمده از تحقیقات بعدی نشان دهد قانونی نقض شده است، کمیسیون نباید در اقدام برای حمایت از آسیب‌پذیرترین افراد جامعه تردید کند.»

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *