에 대한 댓글

인공지능 전공하는 입장에서 이런 글볼때마다 좀 답답하고 안타깝네요..해서 몇자 적어봅니다.

1. 삼성이 어려운 인공지능을 넣었을리 없다, 그냥 고화질 사진으로 붙여넣는거겠지
-> 아니오. 오히려 인공지능이 쉽습니다.
사실 이거때문에 모든 오해가 생기는거 같습니다. 인공지능이 엄청 어렵고 비싼 기술이라고 생각하니까 이런 반응이 나오겠죠. 근데 오히려 고화질 사진을 복붙하는게 훨씬 어렵습니다. 생각해보세요 각 사진마다 조도, 색 온도, 달 크기, 달 색깔, 초승달인지 보름달인지 등등 수많은 달 사진 후보가 필요할거에요. 이 고화질 사진들을 저장할 공간은 얼마나 클 것이며 각 사진에 걸맞는 달은 어떻게 검색할 거고 또 위화감 없이 붙여넣으려면 얼마나 힘들겠습니까..반면 인공지능은 그냥 잘 학습시켜놓기만하면 주어진 달을 보고 그럴듯하게 그려줄겁니다. 훨씬 쉬워요. 구현에서나 최적화에서나 모두요.
2. 라이트벨런스를 올렸더니 네모난 격자가 나오네 이건 고화질 사진을 복붙한 증거다?
-> 아니오. 오히려 인공지능 돌린 달을 붙여넣은 증거입니다.
인공지능을 학습시키는건 간단하게 말해서 이런걸겁니다. 컴퓨터한테 희미한 밑그림만 주고 진짜 달같이 덧칠해봐라. 이걸 그럴듯하게 잘 그릴때까지 반복학습시키는 거죠. 그럼 사진에서 달부분이 아닌 어두운 부분은? 중요하지 않으니까 대충 검은 칠만 하고 내보내게 됩니다. Vision 알고리즘에 쓰이는 인공지능인 cnn은 그 특성상 사각형 패치 (patch)를 입력으로 받습니다. 그러니까 달만 누끼따서 넣는게 아니고 그주변 사각형을 따서 인공지능을 돌리게 됐을거고 그러면 딱 저런 현상이 나타납니다. 아마 여기선 끝이 둥근 사각형으로 한번 크롭한다음 다시 정사각형 패치를 크롭해서 인공지능을 돌렸을 것으로 보이네요.



삼성입장



IT유튜버의 입장
삼성전자 관계자는 “달을 감지하면 블러, 노이즈를 줄이고 디테일 향상을 시키고, 사진을 많이 찍어서 파악한 다음에 여러 프레임을 합치고 업스케일링한다” 이렇게 대답했습니다. 
복잡하죠. 여러장 찍어서 좋은 부분을 합치는 건 HDR 촬영 모드를 말하는 거고요. 
여기서 더 나아가서 여러 프레임을 합치는 건 대부분의 폰에 있는 야간 모드죠. 픽셀, 갤럭시, 아이폰 모두 같은 기능을 갖고 있습니다. 
그런데 업스케일링. 여기가 논란을 불러올 부분입니다. 
삼성의 업스케일링 기술이 어디서 쓰일까요? TV입니다. 
삼성·LG가 8K TV를 파는데 시중에 8K 콘텐츠가 잘 없죠. 
그래서 AI로 HD나 4K 영상을 8K로 만듭니다. 그럼 빈 부분이 생기잖아요. 
이걸 AI가 추측해서 채워주는 거죠. 저화질 인공위성 사진으로 범인 잡아내고 그러잖아요. 똑같은 겁니다. 이걸 극단적으로 많이 하면 여러분이 아시는 AI 그림이 되죠. 
디퓨전 모델을 활용하는데요. 좋은 해상도 이미지를 막 저화질로 만들어서 학습을 하죠. 
그럼 반대로 저화질도 고화질로 만들 수 있는 겁니다. TV, AI 그림 모두 비슷한 모델을 씁니다.

이 기능을 잘 설명해줬으면 문제가 없었을 겁니다. 예를 들어서 음식을 갤럭시로 찍으면 형태는 그대론데 윤곽과 빛 같은 걸 보정해주거든요. 이건 찍었다-라고 부를 수 있을 겁니다. 그리고 AI 지우개로 부르는 보정 기능이 있는데요. 잘못 찍힌 사람이나 사물을 지워주는 기능입니다. 포토샵에도 내용 인식 채우기라고 비슷한 기능이 있어요. 이건 합성이라고 볼 수 있겠죠.

그러니까 갤럭시의 달 모드는 찍는 행위를 하는 건 맞지만 보정과 합성의 경계에 있는 기능입니다. 그런데 사용자는 찍었다-라고 생각하는 게 문제인 거죠. 그런데 애매한 문제입니다. 지금 줌 사진 대부분에 AI의 적극적인 개입이 이뤄지고 있거든요. 삼성, 구글, 애플 다 그렇습니다. 그러니까 보정이 아니라고 하긴 애매한데, 찍는 행위를 하기 때문에 찍는 건지 아닌지 애매해지죠. 만약 이 사진을 그냥 찍은 것이라고 말한다면 저는 이런 사진도 찍을 수 있습니다.




종합 결론

DB상에 있는 달사진 붙여넣기는 아니고 AI가 사진 분석해서 그려줌

이걸 합성으로 볼지 업스케일링 기술로 볼지는 각자 판단