네, ESRI 세계에서 얼마나 큰 데이터 세트를 사용하고 있는지에 대한 비공식적 인 쿼리 / 설문 조사를 생각합니다 ...
전 주 차원의 데이터 세트를 구축하고 유지 관리하고 있습니다. Google 시스템의 소포 당 여러 우편물 주소. 많은 곳에서 거리 네트워크 또는 USPS AMS / AIS 데이터로부터 계산 된 이론적 주소를 사용하고 있습니다. 따라서 내 주소 목록은 대략 1,350 만 개의 주소이며 월별 또는 분기별로 증가합니다.
현재 누구든지 지속적인 데이터 세트에서이 주소의 주소 / 적절한 조회 정보 시스템을 유지하고 있습니까?
다른 사람들이 이러한 대규모 데이터 세트를 처리하는 방법에 대해 공동 작업하거나 더 이야기하고 싶습니다. 교차 또는 공간 조인과 같은 작업을 수행하려고 할 때 ESRI 소프트웨어가 폭발하는 것처럼 보이는 문제가 있습니다. ESRI에 따르면 이러한 종류의 문제는 보이지 않지만 9.3.1 이후 로이 문제가 발생했기 때문에 여러 컴퓨터에서 다시 만들 수 있기 때문에이 작업을 수행하는 최초의 유일한 사람이 될 수는 없습니다.
내 플랫폼은 현재 데스크탑의 ESRI ArcGIS 10이며 GEOMETRY 공간 객체를 사용하여 SQL2008 백엔드에서 ArcSDE 9.3.1-sp1과 통신합니다. 그래서 나는 정말 이국적인 것을하고 있지 않습니다. 하지만 여전히 일부 지역에서는 봉투를 밀고있는 것 같습니다.
[더욱이]
내가 관심이있는 것은 다른 사람들 이이 데이터 세트를 처리하기 위해 프로세스를 최적화하기 위해 수행하는 작업입니다. 앞으로 한 달에 백만 건의 레코드를 추가 할 예정이며 다른 프로세스를 실행하고 추가 분석을 위해 데이터를 연결하여 복잡한 조인을 처리하기 시작하면 지오 코딩 등은 문제가되지 않습니다. 자, 당신은 Only_FID를 사용하여 교차 / 오버레이 / 아이덴티티에서 데이터를 출력하고 조인 할 중간 테이블도 얻습니다. 그러나 해당 테이블 생성을 분할하고 정복하려고 시도하면 소스 데이터를 작업 영역으로 분할해야하지만 다시 병합 할 수없는 IDS가 반복되는 문제가 발생하기 시작합니다. 따라서 더 작은 데이터 블록이 남아있어 쉽게 다시 만들 수 없습니다.
데이터를 카운티 별 규모로 세분화 한 다음 공간 뷰를 사용하여 데이터를 다시 결합하는 옵션에 대해 생각하고 있습니다. 발자취.