@Hồ Đăng Khoa
Ống kính nào leica hả bạn, bạn đang nói hw hả? Vậy thì xem lại hw có nói lens leica ko nhé, có là có, ko có thì google tiếp xem leica nó can thiệp j vào cam hw rồi nói tiếp.
bài viết ghi thông tin không đầy đủ gây hiểu nhầm cho nhiều người nhất là trong khi gần đây con redmi note 7 đang bị bóc phốt về camera 48mpx.
1. redmi note 7 hiện nay đang dùng cảm biến của SAMSUNG chứ không phải SONY do thiếu nguồn cung của SONY.
2. chip đang sử dụng trên redmi note 7 là snap 660 cũng ko hỗ trợ độ phân giải 48mpx thực sự của SONY.
3. cảm biến của SONY và SAMSUNG cơ chế hoàn toàn khác nhau.
-Với SONY là chính xác độ phân giải 48mpx, mỗi điểm ảnh kích thước 0,8. khi thiếu sáng thì 4 điểm ảnh (2 xanh lá, 1 đỏ, 1 xanh nước biển) gộp thành 1 (có thể thành 1 trong 3 màu nên trên tùy theo vị trí).
- Với SAMSUNG là độ phân giải có 12mpx, mỗi điểm ảnh kích thước 1,6 nhưng có thể chia 1 điểm ảnh (ví dụ màu xanh lá) thành 4. (vẫn là màu xanh lá). nên về bản chất samsung chỉ là resize lại cái ảnh từ 12mpx lên 48mpx. chả có tác dụng gì ngoài marketing.
@gabeohp91
Là nó đáp ứng cho phân khúc tầm trung muốn tăng chất lượng ảnh nhưng khả năng cpu có hạn. Thay vì dùng 48 triệu điểm cảm biến cho ra 48 triệu điểm ảnh thì chỉ có flagship mới gánh nổi thì nó cho 4 điểm cảm biến nhận tín hiệu cho 1 điểm ảnh. Có vẻ như bạn nhầm là 1 điểm cảm biến to thì cũng y như 4 điểm cảm biến nhỏ, như chẻ nhỏ một cái bánh ra.
Nó nhận tín hiệu vào 4 điểm cảm biến xử lý ngay cấp phần cứng cho ra 1 điểm ảnh thì cpu tầm trung chỉ tiếp nhận 12mpx để xử lý mới mượt, chứ đòi 660 xử lý 48mpx ảnh thì coi như tự đeo tạ vào chân đeo gông vào cổ rồi.
Cách gộp nhiều điểm thành 1 để tăng cường chất lượng này có nhiều hướng tiếp cận, nếu cpu mạnh thì nó sẽ cho 48b triệu cảm biến tiếp nhận 48tr điểm ảnh độc lập rồi đưa cpu mày tự bóp lại thành 12mpx để xài hay giữ vậy tùy ý. Còn chip tầm trung thì nó chấp nhận chỉ có đầu ra cuối là 12mpx nhưng là kết quả tiếp nhận của 48tr điểm cảm biến được "bóp" ngay từ gốc.
Và mấy nay nếu xem review liên quan vụ này để ý sẽ thấy thao tác trích xuất 48mpx thô đều đi kèm với trải nghiệm là bị chậm và chỉ bật được bên mode pro, còn dùng thông thường theo đúng mục đích thiết kế thì nhanh bình thường. Cái cảm biến này mục đích ko phải dùng để cho ra ảnh 48mpx là như vậy.
@Cận Ngôn
cách sắp xếp thu nhận hình ảnh theo ma trận bayer đó trên trên block 2x2 thì có 2 xanh lá, 1 đỏ, 1 xanh dương đặt xếp chéo nhau để bất cứ 2 điểm ảnh nào nằm cạnh nhau sẽ không thu nhận màu sắc giống nhau. dưới đây là hình minh họa cơ chế cái cảm biến hình ảnh 48mpx của samsung. nhìn cũng thấy ngay là nó khác sony thế nào (ảnh minh hoa cơ chế cảm biến 48mpx của sony ở ngay đầu bài).
- với samsung là khi ảnh lên 48mpx thì block 4x4 (16 điểm ảnh) vẫn chỉ tính được là xếp theo 1 bayer. vì có 2 điểm ảnh cạnh nhau thu nhận màu giống nhau, nên thực tế chỉ là 1 block bayer (nhưng kích thước to).
- với sony là khi ảnh lên 48mpx thì block 4x4 (16 điểm ảnh) sẽ được tính thành 4 bayer (sony gọi là quadbayer) vì không có 2 điểm ảnh cạnh nhau nào thu nhận màu giống nhau nên tạo thành 4 block bayer (kích thước nhỏ)
cách làm của sony thì chính xác mới là cách làm tăng chi tiết của ảnh lên, còn samsung thì không (độ chi tiết của ảnh được phân biệt bằng màu sắc và tương phản giữa 2 điểm ảnh cạnh nhau) 1895769.jpg
@gabeohp91
Chính xác, cách của sony nó được gốc 48 triệu điểm ảnh, cách của ss gốc nó chỉ được 12 triệu điểm ảnh. Của sony đưa xuống 660 chỉ có bò với lết vì ko xử lý nổi 48 triệu điểm ảnh. Của samsung nó chỉ cố gắng cho màu ảnh chính xác hơn chứ ko phải nhiều chi tiết hơn, đổi lại chip tầm trung xử lý mượt mà.
cái này chỉ là 1 phần thôi, chứ cái trò gộp điểm ảnh này chính thằng sony cũng làm từ lâu rồi. Từ thời con z2 , khi mà đa số smp vẫn còn chụp ảnh 7 8mpx thì nó đã 20mpx nén xuống còn 10 hay 11mpx gì đó. cơ mà thuật toán xử lý ảnh như c ứt. màu sắc vẫn cứ nhợt nhạt, chụp tối thì kém.