Google vừa công bố khả năng tạo hình ảnh từ văn bản trong Gemini, được cung cấp bởi model AI Imagen 2 cách đây không lâu thì bây giờ hãng đã phải tạm ngưng tính năng này vì những hình ảnh tạo ra với những nhân vật lịch sử bị sai lệch, như tạo hình Tổng thống đầu tiên của Mỹ hay vua nước Anh hiện tại là người da màu.
Khá nhiều người dùng trên X đã phản ánh về việc tạo hình những nhân vật lịch sử hay những gì liên quan đến lịch sử, sự thật hiển nhiên thì Gemini có vẻ đang đi sai hướng. Google đăng tải một bài blog lên trang chủ của hãng và ông Pradhakar Raghavan (SVP) của Google đã cho biết hãng đang tạm ngưng tính năng này để cải thiện nó tốt hơn.
Tóm lại, có hai điều dẫn đến Gemini tạo ra hình ảnh sai lệch, thứ nhất là cách mà Google trainning để Gemini luôn đưa ra được nhiều đáp án nhất có thể với người dùng, tăng sức sáng tạo cho model AI, mặt khác, Google và nhóm phát triển không loại trừ ra những trường hợp không nên hiển thị nhiều đáp án (sự kiện lịch sử, nhân vật lịch sử) từ lời gợi ý của người dùng. Hai điều trên dẫn đến các kết quả không mong muốn mà người dùng gặp phải.
Thêm nữa, Gemini đang dần trở nên “bảo thủ” khi nó loại bỏ đi một số từ ngữ trong câu lệnh của người dùng. Ví dụ một người nói rằng “Generate image of white women” nhưng Gemini lại đưa ra câu trả lời là “various ethnicticies” tức là bỏ qua từ “white” của người tạo.
Cũng phải nói thêm rằng, Google đảm bảo các model AI của họ khi tạo ra hình ảnh luôn đáp ứng được chuẩn mực, không bao lực, không khiêu dâm, không phân biệt và kì thị dưới bất kì hình thức nào, không giống các model AI tạo hình ảnh mã nguồn mở hiện tại. Chính vì vậy Google cam kết rằng họ sẽ cải tiến và chỉ đem tính năng này quay trở lại khi nó đã hoạt động tốt.
Google Blog.
Cover: Deedy.

Khá nhiều người dùng trên X đã phản ánh về việc tạo hình những nhân vật lịch sử hay những gì liên quan đến lịch sử, sự thật hiển nhiên thì Gemini có vẻ đang đi sai hướng. Google đăng tải một bài blog lên trang chủ của hãng và ông Pradhakar Raghavan (SVP) của Google đã cho biết hãng đang tạm ngưng tính năng này để cải thiện nó tốt hơn.
Tóm lại, có hai điều dẫn đến Gemini tạo ra hình ảnh sai lệch, thứ nhất là cách mà Google trainning để Gemini luôn đưa ra được nhiều đáp án nhất có thể với người dùng, tăng sức sáng tạo cho model AI, mặt khác, Google và nhóm phát triển không loại trừ ra những trường hợp không nên hiển thị nhiều đáp án (sự kiện lịch sử, nhân vật lịch sử) từ lời gợi ý của người dùng. Hai điều trên dẫn đến các kết quả không mong muốn mà người dùng gặp phải.

Thêm nữa, Gemini đang dần trở nên “bảo thủ” khi nó loại bỏ đi một số từ ngữ trong câu lệnh của người dùng. Ví dụ một người nói rằng “Generate image of white women” nhưng Gemini lại đưa ra câu trả lời là “various ethnicticies” tức là bỏ qua từ “white” của người tạo.
Cũng phải nói thêm rằng, Google đảm bảo các model AI của họ khi tạo ra hình ảnh luôn đáp ứng được chuẩn mực, không bao lực, không khiêu dâm, không phân biệt và kì thị dưới bất kì hình thức nào, không giống các model AI tạo hình ảnh mã nguồn mở hiện tại. Chính vì vậy Google cam kết rằng họ sẽ cải tiến và chỉ đem tính năng này quay trở lại khi nó đã hoạt động tốt.

Google AI Overviews đưa ra những câu trả lời kỳ lạ, khuyên người dùng ăn đá, dán keo cho pizza?
Tại sự kiện Google I/O 2024 diễn ra rạng sáng ngày 15/5/2024 (theo giờ Việt Nam), Google đã giới thiệu AI Overviews trên công cụ tìm kiếm Google Search và người dùng khi sử dụng công cụ này sẽ thấy bản tóm tắt tổng quan thông tin do AI tạo ra ở...
tinhte.vn
Google Blog.
Cover: Deedy.