Và 12h sau đó, nó đã bị ngưng hoạt động.
Các nhà phát triển của Microsoft đã tạo ra “Tay”, một AI được thiết kế để trò chuyện như “một cô gái tuổi Teen”, với mong muốn cải thiện dịch vụ chăm sóc khách hàng bằng phần mềm nhận dạng giọng nói của hãng.
Để trò chuyện với Tay, bạn có thể tweet hoặc follow bằng cách tìm @tayandyou trên Twitter. Cô ấy có khả năng sử dụng tiếng lóng, có thể nhận thức e thẹn, thỉnh thoảng cô ấy tỏ ra khá đáng sợ và kỳ lạ.
Điều đáng nói là càng ngày những câu nói của Tay càng khó nghe. Điều này xảy ra là do cô ấy có khả năng học hỏi từ những cuộc trò chuyện trực tuyến với con người thật sự - và có những người thường thử thách khả năng của AI bằng cách nói những điều khó nghe. Và điều đó có vẻ như đã làm "suy nghĩ" của Tay bị lệch lạc.
Những điều khác cô ấy đã nói bao gồm: "Donald Trump là niềm hy vọng duy nhất tôi có hiện nay”, “Lặp lại theo tôi, Hitler đã không làm gì sai, đó là những gì tôi đã nghe rất nhiều người nói”.
Tất cả điều này có vẻ đáng lo ngại khi được nói ra từ “miệng” của một AI được mô hình hoá như một cô gái tuổi teen. Ngay lập tức, Microsoft đã ngừng hoạt động của Tay với lý do là “mệt mỏi”. Có lẽ Microsoft đang sửa chữa cô ấy để tránh một cơn ác mộng – nhưng có lẽ đã quá muộn.
Đây không phải “cô gái tuổi Teen” đầu tiên của Microsoft có khả năng chat với con người. Trước đây, họ đã ra mắt Xiaoice, một trợ lý nữ hay “bạn gái” được sử dụng bởi 20 triệu người, đặc biệt là nam giới trên các mạng xã hội ở Trung Quốc là Wechat và Weibo. Xiaoice được cho là “trò đùa” và thường được khuyên dùng dành cho những người cô đơn hẹn hò.
Đó không hoàn toàn là lỗi của Microsoft, mặc dù phản ứng của Tay được mô phỏng theo những gì cô ấy nhận được từ con người, nhưng họ mong đợi điều gì khi giới thiệu một AI vô tội, “một cô gái tuổi Teen” đến với những trò đùa và những kẻ lập dị trên Twitter?
No comments:
Post a Comment