Google Pixel 4.
Vậy bức tranh lớn mà các nhà sản xuất đang muốn vẽ ra trước mắt bạn là gì? Đó là khi bạn chụp ảnh kỹ thuật số, bạn không thực sự chụp ảnh nữa.
"Hầu hết các bức ảnh bạn chụp ngày nay không phải là một bức ảnh, cái mà bạn nhấp vào nút chụp và ghi lại khoảnh khắc", Ren Ng, giáo sư khoa học máy tính tại Đại học California, Berkeley cho biết. "Ngày nay, nó cần một loạt hình ảnh và tính toán tất cả dữ liệu đó vào một bức ảnh cuối cùng."
Nhiếp ảnh tính toán đã có từ nhiều năm trước. Một trong những hình thức đầu tiên là HDR, cho ra hình ảnh với dải động cao, bằng cách chụp một loạt ảnh ở các mức phơi sáng khác nhau và pha trộn các phần tốt nhất của chúng thành một hình ảnh tối ưu.
Trong vài năm qua, nhiếp ảnh tính toán đã trở nên phức tạp hơn, nhanh chóng cải thiện các bức ảnh được chụp trên điện thoại của chúng ta. Hãy cùng xem xét sự khác biệt này một cách chi tiết hơn, trên Google Pixel 4 vừa ra mắt.
Ảnh thiên văn
Năm ngoái, Google đã giới thiệu chế độ Night Sight, làm cho những bức ảnh được chụp trong điều kiện ánh sáng yếu được hiển thị như thể chúng được chụp trong điều kiện bình thường, mà không cần đèn flash. Kỹ thuật này được tạo ra bằng cách chụp một loạt ảnh với độ phơi sáng ngắn và ghép lại chúng thành một hình ảnh tổng thể.
Với Pixel 4, Google đang áp dụng một kỹ thuật tương tự cho các bức ảnh về bầu trời đêm. Đối với loại ảnh thiên văn này, máy ảnh sẽ tự phát hiện và chuyển đổi chế độ khi trời rất tối và chụp một loạt ảnh ở các mức phơi sáng rất dài để thu được nhiều ánh sáng hơn. Kết quả là chúng ta có một bức ảnh mà trước đây chỉ có thể được thực hiện với máy ảnh chuyên nghiệp cùng bộ ống kính cồng kềnh đi kèm.
Những chiếc iPhone mới của Apple cũng giới thiệu một chế độ chụp ảnh trong điều kiện ánh sáng yếu, sử dụng một phương pháp tương tự. Khi máy ảnh phát hiện thấy một điều kiện chụp hình được cài đặt rất tối, nó sẽ tự động chụp nhiều ảnh và hợp nhất chúng lại với nhau, đồng thời điều chỉnh màu sắc và độ tương phản.
Chế độ chân dung
Một vài năm trước, các nhà sản xuất điện thoại như Apple, Samsung và Huawei đã giới thiệu các chế độ chụp chân dung chuyên biệt, còn được gọi là "hiệu ứng bokeh", bằng cách làm sắc nét một đối tượng ở nền trước và làm mờ hậu cảnh. Hầu hết các nhà sản xuất điện thoại đã sử dụng hai ống kính làm việc cùng nhau để tạo hiệu ứng này.
Hai năm trước với Pixel 2, Google cũng tạo ra được hiệu ứng tương tự với chỉ một ống kính duy nhất. Phương pháp của hãng chủ yếu dựa vào học máy, tức là máy tính phân tích hàng triệu hình ảnh để nhận ra những gì quan trọng trong một bức ảnh. Chiếc smartphone sau đó đưa ra dự đoán về các phần nào của bức ảnh nên sắc nét và tạo ra một lớp "mặt nạ" xung quanh nó. Một cảm biến đặc biệt bên trong máy ảnh, đã giúp phân tích khoảng cách giữa các đối tượng và máy ảnh để làm cho hình ảnh mờ trở nên trông thật hơn.
Và với Pixel 4, Google cho biết, nó đã cải thiện khả năng chế độ chân dung này hơn nữa. Ống kính thứ hai mới sẽ cho phép máy ảnh thu được nhiều thông tin hơn về độ sâu, giúp nó chụp được các đối tượng với chế độ dọc từ khoảng cách xa hơn.
Zoom chất lượng cao
Trước đây, việc phóng to hình ảnh bằng máy ảnh kỹ thuật số thực tế là điều cấm kỵ, vì hình ảnh chắc chắn sẽ trở nên rất nhiễu và chỉ một rung động nhỏ của tay khi thao tác cũng sẽ tạo ra bóng mờ. Google đã sử dụng phần mềm để giải quyết vấn đề này vào năm ngoái, trên dòng smartphone Pixel 3, với cái mà nó gọi là Super Res Zoom.
Kỹ thuật này tận dụng các cử động rung tay tự nhiên để chụp một loạt ảnh ở các vị trí khác nhau. Bằng cách kết hợp từng bức ảnh hơi khác nhau, phần mềm của máy sẽ tạo ra một bức ảnh với đầy chi tiết, thứ mà không thể tạo ra với hệ thống zoom kỹ thuật số thông thường.
Còn với ống kính mới của Pixel 4, khả năng Super Res Zoom được mở rộng hơn bằng cách điều chỉnh để phóng to, tương tự như ống kính zoom trên máy ảnh phim. Nói cách khác, bây giờ máy ảnh sẽ tận dụng cả tính năng phần mềm và ống kính quang học để phóng to mà không làm ảnh mất chi tiết.
Chúng ta có thể mong đợi điều gì?
"Nhiếp ảnh tính toán là toàn bộ lĩnh vực nghiên cứu về khoa học máy tính", tiến sĩ Ng, giáo sư ở đại học Berkeley, chuyên giảng dạy các khóa học về chủ đề này cho biết. Ông nói rằng mình và các sinh viên đang nghiên cứu các kỹ thuật mới như khả năng áp dụng hiệu ứng trong chế độ chụp chân dung vào quay video.
Ví dụ, giả sử hai người trong một video đang có một cuộc trò chuyện và bạn có thể điều chỉnh máy ảnh tự động tập trung vào bất cứ ai đang nói. Với máy quay thông thường, việc đó không dễ bởi bạn không thể được dự đoán trước người nào sẽ lên tiếng. Nhưng với nhiếp ảnh tính toán, máy ảnh có thể ghi lại tất cả các cảnh quay, sau đó sử dụng trí thông minh nhân tạo để xác định người nào đang nói và áp dụng các hiệu ứng lấy nét tự động sau đó. Video cuối cùng mà bạn xem sẽ có sự chuyển trọng tâm giữa hai người khi họ thay phiên nhau cất tiếng.
"Đây là những ví dụ về các khả năng hoàn toàn mới và đang nổi lên trong giới nghiên cứu, có thể thay đổi hoàn toàn những gì chúng ta nghĩ về những điều không tưởng", tiến sĩ Ng chia sẻ.