*coherent 노이즈 (Clutter) 제거 기계학습이 통계적 분포를 이용하여 데이터를 학습한다면 Radar clutter도 통계적 분포가 있는데, 기계학습이 Radar clutter 억압에 기여할 수 있을까? *incoherent 노이즈 제거 GPR signal processing이 기계학습으로 대체 가능성이 있을 까? 현재, 노이즈 억압을 위해서 시간을 들여 stacking을 하고 있는데, 이러면서 측정 영역이 좁아 진다. 그렇다면, 기계 학습을 이용해서 노이즈 억압을 하여 측정 영역을 넓힐 수 있을까? *Noist2Nois 모델은 다른 나라에서 공개한 행성탐사 자료에 활용할 수 있지 않을까? 특히, 시계열 원시 자료를 확보하기 힘든 LRS 자료의 경우 말이다.
Reference: https://docs.gempy.org/getting_started/get_started.html#sphx-glr-download-getting-started-get-started-py *GemPy core code is written in Python. However for efficiency (and other reasons) most of heavy computations happend in optimize compile code, either C or CUDA for GPU. To do so, GemPy rely on the library theano. To guarantee maximum optimization theano requires to compile the code for every Python kernel. *GemPy is a surface based interpolator . This means that all the input data we add has to be refered to a surface. The surfaces always mark the bottom of a unit. By default GemPy surfaces are empty: *It is decisive to remember that, in GemPy, interface position points mark the bottom of a layer. *GemPy input data consist on surface points and orientations (perpendicular to the layers) *As we generate our Data from CSV-files, we also have to define our model's real extent in 𝑥 , 𝑦 and 𝑧 , as well as declare a desired resolution for each axis. This res...
참고문헌: 원격탐사개론, 동화기술 * 화상센서의 기하학 화상자료에 포함되는 기하학적인 왜곡을 제거하기 위해서는 우선 화상상의 픽셀위치와 대상물과의 위치관계(가하학적인 관계)를 파악할 필요가 있음. 이 관점에서 화상 센서는 아래와 같이 정리됨 1. 중심투영방식 -Frame sensor : frame camera, TV camera -Line sensor : linear array sensor, push broom scanner (SPOT HRV) -Point sensor : optical mechanical sensor (Landsat, MSS, TM) 2. 비중심투영방식 : side looking radar, side scan sonar *대상물좌표계 (= 3차원 직교좌표계) -센서 투영 중심 위치 : 촬영 시 센서의 투영 중심 -센서 자세 : 회전각으로 정의 주점 (Principal point) : 센서의 투영 중심으로부터 화상 투영 면상에 내린 수선점 공선조건식 (collinearity equation) -센서의 중심위치 및 자세를 구하는 방법 1. 다른 센서로 직접 계측하는 방법 위치 -> GPS, 측량 기구 자세 -> gyro, star tracker 2. 화상 상에 포함되어 있는 3차원 좌표의 기준점을 이용해서 센서의 중심 위치와 자세를 추정하는 방법. 3차원 좌표의 기준점을 촬영하고 그 화상 좌표를 계측함으로써 촬영 시의 센서중심위치와 자세를 추정하는 방법이다. 즉 기준점의 3차원 좌표 값과 화상 좌표 값과 사이에 공선조건식에 센서 중심의 위치 좌표와 자세가 미지수로서 포함되는 것에 주목해서, 최소자승법을 적용하여 센서의 중심 위치 좌표와 자세를 추정할 수 있다. 이러한 작업을 표정 (orientation)이라고 한다. 정밀도가 높은 기준점이 다수 얻어지면 정밀도가 높게 추정할 수 있다. *기준점 (Ground Control Point) 기준점 : 리모트센싱 화상의 ...
댓글
댓글 쓰기