יותר

מיזוג DEMs או מערכי נתונים רסטיים אחרים וחתך את מערך הנתונים של Raster לקו וקטורי?


יש לי שני DEM שאני יוצר מהם גבעה, ובסופו של דבר אני רוצה שגבעה אחת תחתוך לגבול מחוז. עם זאת, אני נתקל בכמה בעיות.

כשאני מנסה למזג את שתי צלליות הגבעות שנוצרו ממכשירי ה- DEM, ArcMap קורס. כשאני מנסה למזג את שני ה- DEM, ArcMap קורס. אני מניח שאם הצלחתי לאחד את ה- DEMs, צל הגבעה שנוצר יגרום גם ל- ArcMap לקרוס.

אני משתמש בכלי PLTS Merge Raster Datasets, מכיוון שמסיבה כלשהי הכלי Raster Calculator של הכלי המרחבי אינו מופיע כניתן לבחירה.

ברגע שאני מסוגל לעשות את זה ולקבל צל של שני DEMs, האם יש פונקציה ספציפית לשימוש בקו המחוז (שהוא וקטור fc) כדי לקלוט את מערך הנתונים?


מעולם לא השתמשתי בכלים של PLTS, והעזרה לא ממש נותנת מידע רב על אופן פעולת מערכי הנתונים של מיזוג רסטר, אך כלי הגיאובוספורזה לפסיפס לניו רסטר, בארגז הכלים לניהול נתונים תחת מערך הנתונים של רסטר, אמור לעבוד כמו שצריך, ו אינו דורש רישיון ArcInfo או אנליסט מרחבי.

כדי לקצץ את הפסיפס שהתקבל ללא אנליסט מרחבי, השתמש בכלי העיבוד הגיאוגרפי של קליפ, גם בניהול נתונים תחת עיבוד רסטר, והשתמש בתכונת שורת המחוז כתפוקת התפוקה. אם בחרת את תכונת המחוז ותפעיל את האפשרות "השתמש בתכונות קלט לגיזום גיאומטרי", היא תתקבל לגבול בפועל. אם אינך בוחר את התכונה, היא תעביר את הרסטר לתיבה הגובלת של התכונה.


למעשה, אתה יכול למצוא חלופה בחבילת התוכנה GDAL FOSS. בהנחה שקבצי רסטר הם בפורמט ש- GDAL יכול לקרוא, תוכל לעבד אותם באמצעות השלבים הבאים:

  1. צור רסטר וירטואלי באמצעות gdalbuildvrt באמצעות בניית רסטר וירטואלי תוכל לחסוך מקום בדיסק וזמן עיבוד
  2. להשתמש util gdalwrap לחתוך רסטר באמצעות מוכן קו חיתוך בכל פורמט הנתמך על ידי OGR

למידע נוסף אתה יכול לבדוק דף זה http://linfiniti.com/2009/09/clipping-rasters-with-gdal-using-polygons/, כמו כן תוכל למצוא כלי GDAL/OGR ושאר FOSS עבור מערכת הפעלה Windows ב- OSGEO4w הפצה בינארית.


כדי לקצץ את צל הגבעה שלך, השתמש בחלץ לפי מסכה (בהנחה שיש לך אנליסט מרחבי) וציין את מחלקת התכונות של המחוז שלך כ"נתוני מסיכת התכונות ".


לגבי קריסות ... זה עשוי להיות קשור לבעיה הספציפית שלך. בכל פעם שנראה שאני עושה דברים נכון ו- ArcGIS מתרסק באופן בלתי מוסבר, שתי הפעולות הראשונות שלי הן:

  • וודא שאני מחובר כמנהל במחשב.
  • לייצא את הנתונים שלי מתוך ArcGIS (בעצם פשוט לשמור אותם).

כמובן, בדוק שוב כדי לוודא שהמנתח המרחבי שלך וכל הרחבה אחרת הקשורה לזרימת עבודה מופעלת. הערה: אני מגלגל רישיונות ArcInfo מלאים, ואינני מכיר את ההתנהגות ב- ArcView או ArcEditor.


מילה אחת: GlobalMapper סיוט העיבוד של הסידורים שלך יסתיימו, והכל תמורת 350 $ עצומים. מה שאתה מנסה להשיג הוא עוגה ב- GM.

לַעֲרוֹך:

להלן האופן שבו אתה מקליט רסטר למצולע וקטורי ב- GlobalMapper (גרסה 13.2 בשימוש כאן):

  1. טען את הסמל והמצולע הווקטורי שלך ב- GlobalMapper

  2. בחר את המצולע בעזרת הכלי 'מידע על תכונה' ולאחר מכן כבה אותו במרכז הבקרה של כיסוי (אחרת הוא ייכלל בייצוא שלך):

  3. עבור אל קובץ | פורמט רסטר/תמונה או קובץ | ייצא פורמט רשת גובה (אני הולך לעשות רסטר/תמונה)

  4. בחר את תבנית הייצוא מהתפריט הנפתח. לאחר מכן באפשרות הייצוא, בכרטיסיה ייצוא גבולות, בחר חיתוך לתכונות אזור נבחר:

  5. המשך בייצוא, תקבל רסטר עם היקף מצולע הקליפים שלך.


שיעור 3. פעילות: עלילת נתוני רסטר מרחביים בפייתון

לאורך פרקים אלה, אחד המוקדים העיקריים היה פתיחה, שינוי ותכנון כל צורות הנתונים המרחבים. הפרקים כיסו מגוון רחב של סוגי נתונים אלה, כולל כל סוגי הנתונים הווקטוריים, נתוני גובה, נתוני תמונות ועוד! השתמשת בשילוב של מספר ספריות כדי לפתוח ולשרטט נתונים מרחביים, כולל פנדות, גיאופנדות, matplotlib, עפר, ועוד שונים. לעתים קרובות אנליטיקת כדור הארץ תשלב נתוני וקטורים וראסטרים לצורך ניתוח משמעותי יותר בשאלת מחקר. לתכנן את סוגי הנתונים השונים הללו יחד יכול להיות מאתגר, אך גם אינפורמטיבי מאוד.


כיצד ניתן להסיר חפצי קצה DEM ב- ArcGIS?

כפי שאתה יכול לראות יש חפצי אריחים ברורים מסריקת ה- DEM המקורית, בגלל זה מודל כיוון הזרימה שלי מתגבר כאשר כיוון הזרימה המתפרש משתנה לאורך קצה הריצוף הזה כפי שניתן לראות כאן: https://imgur.com/a /60PXwXn

מה המקור לאריחי DEM? אני מתחיל תחילה בבדיקה אם לאריחים יש ערכים שווים לאזורים חופפים. פשוט פתח את מחשבון הרסטר וחסר אחד מהשני. התוצאה צריכה להיות רסטר שערכו היחיד הוא אפס. אם אתה מקבל משהו אחר, הבעיה היא בנתונים עצמם.

נראה לי כמו בעיית חיישן/עיבוד בשני כיוונים שונים. אני לא מתאר לעצמי שהאריחים יהיו ברוחב של 7 או 8 פיקסלים בלבד.

אופן ההתמודדות עם זה תלוי עד כמה הנתונים המקוריים קריטיים עבורך. ממוצע נע פשוט יחליק אותו כדי לאפשר כיוון זרימה - כאן מסנן ממוצע של 25x25 פיקסלים.

אבל אם אתה רוצה לשמור על רזולוציית ה- DEM המקורית, עליך להיות יצירתיים יותר כדי לזהות את דפוס המקור של טעות חיישן/עיבוד ולפצות על כך. עבר זמן מה מאז שעשיתי את זה (השתמשתי ב- PCA, אבל לפני שנים רבות), אז אני לא מתיימר להכיר את הכלים הנוכחיים.


שיטות

מושג אזורי האקלים המקומיים

טיפולוגית LCZ אומצה כתיאור בסיסי של אזורים עירוניים גלובליים לסוגים מוכרים המוגדרים רשמית כ'אזורים של כיסוי משטח אחיד, מבנה, חומר ופעילות אנושית המשתרעים על פני מאות מטרים עד כמה קילומטרים בקנה מידה אופקי ', לא כולל' שמות כיתות והגדרות ספציפיות לתרבות או לאזור ', ומתאפיינות' משטר טמפרטורה אופייני לגובה המסך הבולט בעיקר על משטחים יבשים, בלילות רגועים ובהירים ובאזורי הקלה פשוטה '27. קיימים 17 סוגי LCZ, מתוכם 10 נחשבים 'עירוניים' (איור 1), וכולם קשורים לפרמטרים אופייניים של חופה עירונית (UCP, טבלה 1). במחקר הנוכחי, שתי שיעורי LCZ 'עירוניים' אינם נחשבים: LCZ 7 (זריחה קלה) המתייחסת להתנחלויות בלתי פורמליות שכמעט ואינן קיימות ב- CONUS, ו- LCZ 9 (בנוי דליל) המאופיין בשפע גבוה של כיסוי קרקע טבעי המתנהג כך מבחינה תרמית ככיסוי קרקעות טבעי.

הגדרות אזור אקלים מקומי עירוני (1-10) וטבעיות (A – G) (מותאמות מטבלה 2 בסטיוארט ואוק 27, צבעי ברירת מחדל של LCZ על פי בכטל ואח '. 31 ).

הוצע הליך מיפוי LCZ אוטומטי (לא מקוון) על ידי בכטל ואח '. 31, ואומץ על ידי פרויקט WUDAPT ליצירת מפות LCZ עקביות של ערים גלובליות. כדי להקל על הרחבת הכיסוי של מפות LCZ, Demuzere ואח '. 32,34 הציגו את מושג ההעברה של אזורי הדרכה (TAs) 32 והשימוש בסביבת מחשוב הענן 33 של Google Engine Engine, המאפשרת להגדיל את שיטת ברירת המחדל של WUDAPT בקנה המידה היבשתי (למשל אירופה 34). בגישה זו שלוש פעולות המפתח מפרוטוקול WUDAPT המקורי נותרו ללא שינוי: (1) עיבוד מוקדם של נתוני תצפית כדור הארץ כתכונות קלט עבור המסווג האקראי, (2) דיגיטציה ועיבוד מוקדם של אזורי אימון מתאימים, ו (3) יישום אלגוריתם הסיווג והערכת הדיוק 45. שלבים אלה מתוארים בפירוט רב יותר להלן.

נתוני קלט

נתוני תצפית על כדור הארץ

ברירת המחדל של זרימת העבודה של WUDAPT משתמשת בדרך כלל במספר אריחי Landsat 8 (L8) בודדים כקלט למיין היערות האקראי 31. כאן אנו מאמצים את הגישה של Demuzere ואח '. 34, באמצעות 41 תכונות קלט ממגוון חיישנים ותקופות זמן. חומרים מרוכבים ממוצעים L8 (2016–2018) מיוצרים לכל השנה וחצי השנה הקיצית/חורפית, וכוללים את הכחול (B2), הירוק (B3), האדום (B4), הכמעט אינפרא אדום (B5), האינפרא אדום הגל הקצר. (B6 ו- B7) ולהקות אינפרא אדום תרמיות (B10 ו- B11). בנוסף נגזרים מספר מדדים ספקטרליים (כמרכבים המכסים את התקופה 2016–2018): מדד צמחיית ההבדלים הנורמלית והמקסימלית (NDVI), מדד ההרכב הביופיזי (BCI 46) באמצעות מקדמי הטרנספורמציה של כובע ציצית מ- DeVries ואח '. 47, מדד ממוצע ההבדלים הנורמליים (NDBAI 48), ממוצע מדד הבנייה המובנית והקרקעית (EBBI 49), מדד המים הממוצע של ההפרש הנורמלי (NDWI 50), מדד הממוצע בניית ההבדל הנורמלי הממוצע (NDBI 51) ו המדד העירוני להפרש מנורמל (NDUI 52). תמונות של מכ"ם צמצם סינתטי (SAR) (2016–2018) כלולות גם כן, שכן תכונה זו נמצאה בעבר כמפתח 32,34,53. בהתאם לדמוזר ואח '. 32,34, מחקר זה משתמש במפגש האחורי של קיטוב-קוטביות יחיד מסוג Sentinel-1 VV שסונן על ידי מצב רכישת החלקה הבין-אינטרומטרית רחבה וגם במסלולים עולים ויורדים, המורכבים לתמונה אחת (להלן S1). ממכלול S1 backscatter, מחשבים אנטרופיה ותמונת C של Geary (מדד מקומי של התאחדות מרחבית 54), באמצעות גרעין מרובע של 5x5 פיקסלים וגרעין שכונתי מרחבי 9x9 בהתאמה. לבסוף, כמה מערכי נתונים נוספים נכללים כגון המוצר Global Forest Canopy Height (GFCH 55), מודל השטח הדיגיטלי GTOPO30 (DTM) ושיפוע והיבט נגזר ממרכז תצפית ומדעי כדור הארץ (EROS) של המכון הגיאולוגי של ארה"ב, ALOS מערך הנתונים העולמי 3D משטח דיגיטלי עולמי (DSM) ומודל גובה דיגיטלי (DEM) על ידי הפחתת ה- DTM מה- DSM. שים לב שכל מערך התכונות מעובד ברזולוציה של 100 מטרים, בהתאם לרזולוציית המיפוי המוגדרת כברירת מחדל שהציע בכטל ואח '. 31. הקורא מופנה לדמוזר ואח '. 34 לפרטים נוספים.

נתוני הדרכה

נתוני ת"א נוצרים בדרך כלל על ידי מומחים עירוניים 31, הליך שדורש זמן, הן בשל אופיו הפנימי של המשימה (כלומר, היקףם וההטרוגניות של אזורים עירוניים) והן מיכולתו של המומחה העירוני לזהות ולדמות ת"א בעקביות 58 , 59. כאן משתמשים בתעריפי מומחים מתשע ערים בארה"ב: פיניקס ולאס וגאס 60, סולט לייק סיטי 61, שיקגו וניו יורק 62,63, יוסטון, וושינגטון הבירה, פילדלפיה ולוס אנג'לס. מומחי הת"א מערים אלה מתווספים עם מצולעים המכסים את כיתות LCZ E (סלע חשוף או מרוצף) ו- F (אדמה חשופה או חול) כדי ללכוד באופן מלא את החתימה הספקטראלית של אזורי המדבר החמים בחלקים הדרום מערביים של CONUS.

מגבלה של הליך ת"א המומחה היא שנתונים נאספים מ -9 ערים בלבד (בשל ההליך הדורש זמן המתואר לעיל). כדי לטפל במגבלה זו, נוצרים נתוני הדרכה נוספים המבוססים על פלטפורמה למקורות קהל: MTurk (https://www.mturk.com). MTurk היא ניתנת להרחבה ומאפשרת לאסוף מספר רב של ת"א עירוניים וטבעיים ברחבי CONUS. התהליך הבא שימש לאיסוף MTurk TAs. ראשית, השתתפות MTurk מוגבלת לעובדים בעלי תעודת מאסטר (כלומר משתמשים שהראו ביצועים גבוהים ב- MTurk במשימות קודמות) ממדינות דוברות אנגלית (כדי למנוע בלבול מההוראות). עובדי MTurk מוצגים הדרכה ומתבקשים לסווג תמונת לוויין (500 על 500 מ ') של אזור עירוני או טבעי. עבור כל תמונת לוויין (https://www.google.com/earth) מוצגים למשתמשים גם התמונות המתאימות של Google Street View (https://www.google.com/streetview/) בתוך שטח של 500 על 500 מ '. בהתבסס על לוויין ותמונות Street View, עובדי MTurk מתבקשים לסווג את האזור כ- LCZ יחיד. המיקומים נבחרים על סמך: (1) אתרי ניטור איכות הסביבה האמריקאית להגנת הסביבה (אשר ממוקמים בכל המטרופולינים הגדולים) ו- (2) תוספת של מיקומים שנבחרו באופן ידני עבור מרכזי LCZ שנדגמו בתת-דגימות (מתוך 60 העירוניים הגדולים ביותר שטחים), כדי להבטיח שכלול מגוון רחב של סביבות בנויות וטבעיות. עבור כל מיקום, תגובות מתקבלות מעשרה עובדי MTurk ייחודיים רק כאשר לפחות 70% מעובדי MTurk הסכימו על הסיווג (מוגדר אותו LCZ או LCZ קרוב לשכן), ה- MTurk TAs כלולים בהכשרה האחרונה מערך נתונים.

שלוש גישות שונות (שימוש ב- TAs בתשע ערי המומחים) משמשות להשוואת העקביות בין EX ל- MTurk TA המבוססות על מידת החפיפה המרחבית של מצולעי ה- TA: (1) התאמה מלאה שבה ה- MTurk TA נופל לחלוטין בתוך ה- EX TA, (2) התאמה לפי צנטרואיד כשהמרכז של MTurk TA נמצא בתוך ה- EX TA, ו (3) התאמה לפי צומת שבו MTurk TA ו- EX TA מצטלבים בשלב כלשהו בחלל. באמצעות כל גישה הערכנו באיזו מידה ה- EX ו- MTurk TAs מייצגים את אותו LCZ. אחוז ההתאמה היה 100% (n [מספר מצולעים תואמים] = 8) בגישת ההתאמה המלאה, 87% (n = 69) בהתאמה לפי צנטרואיד, ו -65% (n = 141) בהתאמה לפי צומת ( טבלה משלימה S1). למרות שקיימים הבדלים, מידת העקביות היא למעשה גבוהה יותר בהשוואה לתוצאות של HUMINEX (HUMan INfluence Experiment 58,59), שהצביעו על פערים גדולים בין מערכי אזור האימונים ממספר 'מומחים', אך למרות זאת הובילו לשיפור משמעותי של הדיוק הכללי בעת שימוש. ביחד. שילוב של נתונים ממומחים וממקורות הם אפוא גישה סבירה לגיוון נתוני הכשרה לפיתוח מודלים של סיווג LCZ.

כשלב סופי של עיבוד מראש של TA, שטח הפנים של מצולעים גדולים מצטמצם לרדיוס של כ -300 מ ', לאחר Demuzere ואח '. 32,34. מצולעים גדולים אלה מייצגים בדרך כלל אזורים הומוגניים כגון גופי מים ויערות 58,59, מאפיין שאינו נחוץ ואינו רצוי, שכן הדבר מוביל לנתוני אימון לא מאוזנים יותר וחוסר יעילות חישובית של המסווג. בנוסף, בגלל חוסר האיזון של מדגם MTurk TA (איור 2), כמות כל שיעורי MTurk שאינם LCZ 6 MTurk (זריחה פתוחה) גדלה פי חמישה, על ידי דגימה אקראית של חמישה מצולעים קטנים (100 x 100 מ ') מכל מצולע MTurk המקורי (קופסאות שחורות באיור 2), למעט מצולעים LCZ 6. התוצאה היא מערכת אימונים מאוזנת יותר המורכבת מ -13,216 מצולעים (10,323 MTurk ו- 2,893 EX TAs, איור 2).

מספר אזורי ההכשרה של מומחים (EX) ו- Amazon Mechanical Turk (MTurk) המשמשים בסיווג CONUS LCZ. קופסאות שחורות מתייחסות לכמות ה- TAurk המקורי של MTurk ללא איזון.

הליך סיווג, הערכת איכות, ועיבוד לאחר

כשלב אחרון בפרוטוקול סיווג LCZ של WUDAPT, אלגוריתם היער האקראי 64 מיושם, תוך שימוש בנתוני תצפית כדור הארץ ובתווי TAs 30,31 כתשומות. דיוקן של המפות המתקבלות מוערך לאחר מכן בשתי דרכים, באמצעות (1) "דגימה אקראית" המבוססת על פיקסלים ו (2) הליך "עיר החזקת עיר" המבוסס על מצולע.

הליך הדגימה האקראית מבוסס על הליך ברירת המחדל האוטומטי של WUDAPT לאימות צולב המתואר בבכטל. ואח '. 45 ומתבצע כמתואר ב- Demuzere ואח '. 34. עשרה פיקסלים נדגמים באופן אקראי מכל TA (וכתוצאה מכך סך של 132,160 פיקסלים). ממאגר הפיקסלים של TA שנלקח, 50% נבחרים כמערכת האימונים ו -50% האחרים כמערכת בדיקה המבוססת על דגימה אקראית מרובדת (מסוג LCZ). תרגיל זה חוזר על עצמו 25 פעמים ומאפשר לנו לספק מרווחי ביטחון סביב מדדי הדיוק המתוארים בפירוט רב יותר להלן.

אסטרטגיה זו עשויה להוביל להערכת דיוק מוטה בגלל המתאם המרחבי הפוטנציאלי ברכבת ובדגימות הבדיקה. לכן, גישה שניה מיושמת בהתאם למתודולוגיה הנהוגה ב- Demuzere ואח '. 32. בהליך החזקת עיר זו המבוסס על מצולע, משתמשים בתעריפי ערים מכל אחת מלבד אחת לאימון המסווג, בעוד שהתעריפים הנותרים מהעיר המוחזקת משמשים להערכת הדיוק. לאחר מכן הדבר חוזר על עצמו בכל תשע ערי המומחים לת.א. מכיוון שהמידע לאימון אינו תלוי במידע המשמש לבדיקות, לא מתבצעת מישור אתחול. השונות סביב הדיוק מסופקת במקרה זה מאיכות המיפוי המשתנה לערי היעד השונות. גישה זו של עיר החזקה שווה ערך לניסויי למידה צולבת או העברת מודלים במחקרים אחרונים אחרים 62,65,66,67.

עבור שתי גישות להערכת האיכות, נעשה שימוש באמצעי הדיוק הבאים: דיוק כולל (OA), דיוק כולל לשיעורי LCZ העירוניים בלבד (OAu), הדיוק הכולל של שיעורי ה- LCZ הבנויים לעומת הטבעיים בלבד (OAbu), דיוק משוקלל (OAw), והמדד מבחינת המעמד F1 32,34,58,68,69,70. הדיוק הכולל מציין את אחוז הפיקסלים המסווגים כראוי. OAu משקף את אחוז הפיקסלים המסווגים משיעורי LCZ העירוניים בלבד ו- OAbu הוא הדיוק הכולל של שיעורי ה- LCZ הבנויים לעומת הטבעיים בלבד, תוך התעלמות מההבחנה הפנימית שלהם. הדיוק המשוקלל (OAw) מתקבלת על ידי החלת משקולות על מטריצת הבלבול ומתייחסת לדמיון (לא) בין סוגים LCZ 58,70. לדוגמה, LCZ 1 דומה ביותר לסוגים עירוניים קומפקטיים אחרים (LCZ 2 ו -3), ומשאיר זוגות אלה עם משקלים גבוהים יותר בהשוואה למשל לזוג עירוני וטבעי מסוג LCZ. זה גורם להעניש בלבול בין סוגים שונים יותר מאשר בלבול בין מעמדות דומים. לבסוף, הדיוק מבחינה קלאסית מוערך באמצעות מדד F1, שהוא ממוצע הרמוני של דיוק המשתמש והיצרן 68,69.

לדברי בכטל ואח '. 31, הסולם האידיאלי לסיווג שונה מהסולם המוגדר על ידי תפיסת LCZ. ליתר דיוק, הרזולוציה האופטימלית לסיווג מבוסס פיקסלים צריכה להיות גבוהה יותר באופן שיטתי מסולם ה- LCZ המועדף (מאות מטרים עד קילומטרים) 27, על סמך צורות לא-רגילות ומלבניות של המדבקות. כתוצאה מכך, פיקסלים בודדים אינם מהווים LCZ ויש להסירם. בזרימת העבודה הקלאסית של WUDAPT, הפירוט מופחת במסנן פוסט-סיווג רוב עם רדיוס ברירת מחדל של 300 מ '. אולם יש לכך מספר חסרונות. ראשית, הוא אינו מתייחס למרחק, כלומר הפיקסל המרכזי משוקלל כמו פיקסל בגבול מסכת המסנן. שנית, הוא אינו מתייחס להבדלים בגודל התיקון הטיפוסי בין המעמדות וכתוצאה מכך, תכונות לינאריות כמו נהרות נוטות להסיר. לבסוף, הוא מייצר כמה חפצים. לכן, נבחרה כאן גישת סינון שונה. עבור כל מחלקה הסבירות הוגדרה על ידי התפתלות מסכת החברות הבינארית הנגזרת מהמפה הראשונית (1 אם פיקסל מוקצה למחלקה אני, 0 אחרת) עם גרעין גאוס עם סטיית תקן σאני וגודל הגרעין & gt = 2 σאני, וכתוצאה מכך מפת סבירות לשיעור. לאחר מכן נבחרה המחלקה עם הסבירות הגבוהה ביותר לכל פיקסל. מכיוון שהדבקים האופייניים שונים בגודלם בין LCZs, σאני נבחרו ערכים של 100 מ 'עבור LCZ 1, 250 מ' עבור LCZ 8 ו- 10 ו -150 מ 'עבור כל המעמדות העירוניים הנותרים. לשיעורי הטבע, 25 מ 'נבחרו למים ו -75 מ' לכל שאר השיעורים. מכיוון שמספרים אלה נגזרו על ידי מומחים, הם מציגים מראש הכרת הנוהל וראויים להמשך בירור והתאמה בעתיד. במיוחד אופטימלי σאני מניחים כי הם שונים בין ערים ליבשות.

פרמטר חופה עירוני ונתוני אוכלוסייה

ערכת LCZ נחשבת לסיווג אוניברסלי, שלא רק מספק פלטפורמה משותפת לחילופי ידע ומסלול למודל יישומים בערים עם מעט תשתיות נתונים, אלא גם מספק תיאור מספרי של פרמטרים של חופה עירונית (UCP) שהם המפתח בתהליכים של המערכת האקולוגית העירונית 71. בין היתר UCP אלה כוללים את עקבות הבניין (BF), גובה הבנייה הממוצע (BH), שטח הפנים אטום (ISA), גורם תצוגת השמיים (SVF) ושטף החום האנתרופוגני (AHF). טווחי UCP ספציפיים למחלקות, כלליות בעולם, מסופקים בטבלה 1, והם שימושיים במיוחד באזורים בהם מידע כזה אינו זמין/לא שלם ו/או זמין ברזולוציות מרחביות/זמניות ירודות 30,34. ל- CONUS יש מערכות נתונים כאלה זמינות, מה שמאפשר לנו 1) להעריך את מפת LCZ עם מערכי נתונים עצמאיים אלה ו 2) לכוונן את טווחי UCP הגנריים הקיימים המסופקים על ידי סטיוארט ואוק 27. כפי שתואר לעיל, הטיפולוגיה LCZ היא בעיקר תיאור של כיסוי הקרקע, אך ניתן לקשור חלק מהסוגים לשימוש באדמה ולאוכלוסייה. לדוגמה, קומת גובה קומפקטית (LCZ 1) וחצי אמצע (LCZ 2) קשורים בדרך כלל למחוזות מסחריים במרכז העיר ברוב ערי ארה"ב, אם כי הם כוללים גם גושי דירות גבוהים למגורים. זריחה קומפקטית (LCZ 3) קשורים בדרך כלל לשכונות צפופות בקרבת מרכזי ערים, רבות מהן נבנו בתחילת המאה העשרים. סוגים פתוחים בכל הגבהים (LCZ 4-6) ניתנים לקשר לאזורי המגורים בפרברים. לבסוף, סוגי הזריחה הגדולים (LCZ 8) והתעשייה הכבדה (LCZ 10) קשורים ליחידות אחסון ומתקני פליטה גדולים, בהתאמה. במילים אחרות, אפשר לצפות שכל סוג יקשור לאוכלוסיות שונות. כדי להעריך את LCZs על בסיס הצעה זו, סוגים LCZ הם benchmarked גם נגד מספר האוכלוסייה התושבים.

בניית עקבות

צוות מפות בינג במיקרוסופט פרסמה מערך נתונים לבניית וקטורים ברחבי הארץ בשנת 2018 72. מערך נתונים זה נוצר מתמונות אוויריות הזמינות למפות בינג באמצעות שיטות למידה מעמיקות לסיווג אובייקטים. מערך זה כולל למעלה מ -125 מיליון מצולעים של טביעת רגל בכל 50 מדינות ארה"ב בפורמט וקטורי GeoJSON. מערך הנתונים מופץ בנפרד לכל מדינה ויש לו דיוק של 99.3% ודיוק זיכרון פיקסל של 93.5%. מכיוון ששכבות וקטוריות מאתגרות מאוד לניתוח בקנה מידה גדול, הריס ואח '. 73,74 המירו את מערך הנתונים לפורמט רסטר עם רזולוציה מרחבית של 30 מ 'בהתאם לרשת 29 National Site-Cover Dataset (NLCD), המספקת שישה משתני סיכום של טביעת רגל לכל תא. המחקר שלנו משתמש בכיסוי הכולל של כל טביעת הרגל לכל תא רשת, עם ערכים שנעים בין 0 מ '(0%, ללא בניינים) ל -900 מ' 2 (100%, בנוי לחלוטין).

גובה בניין

למיטב ידיעתנו, אין כיום גובה בניין זמין לציבור, עדכני ואיכותי (BH, M) מערך נתונים המשתרע על פני ארצות הברית היבשתית. לפיכך, גובה הבניין נלקח מפלקון 75, המספק מיפוי קטגורי של גובה בניה ממוצע משוער, לפי קבוצת בלוק מפקד עבור ארצות הברית היבשתית. הנתונים נגזרו מהמשימה של טופוגרפיה של מכ"ם רד"ם של נאס"א, שאספה נתוני מכ"ם "החזרה הראשונה" (ראש חופה ומבנים) ברזולוציה של 30 מ 'בפברואר 2000. תכונות לא עירוניות סוננו, כך שערכי גובה מתייחסים גבהים של אובייקטים שבהם קיימת פיתוח עירוני, למשל, בניינים ומבנים אחרים מעשה ידי אדם (אצטדיונים, מגדלים, אנדרטאות). בשל קשיים במיפוי גבהי בנייה מדויקים, נאסף מידע על 216,291 קבוצות גוש מפקדים ברחבי CONUS. בתורו, ערכי גובה הבלוק סווגו לשש קבוצות בהתאם להתפלגות הסטטיסטית שלהם וסווגו כ"נמוכים "," נמוכים-בינוניים "," בינוניים "," בינוניים-גבוהים "," גבוהים "ו"גבוהים מאוד". שימוש בגבהים ובעקבות הבנייה של 85,166 בניינים בסן פרנסיסקו (נציג לשנת 2010), הוערכה איכות הנתונים (מתאם של 0.8), וחישוב הממוצע וסטיית התקן (SD) של הגבהים בפועל עבור קבוצות בלוקים בהן גובה הבנייה בפועל נתונים היו זמינים. הליך זה גרם לערכי הגובה הממוצעים (SD) הבאים: 'נמוך': מעט מדי תצפיות בכדי להיות משמעותיים, 'נמוך-בינוני': 11.5 מ '(3.2 מ'), 'בינוני': 13.1 מ '(3.1 מ'), 'בינוני' -גבוה ': 16.3 מ' (4.4 מ '),' גבוה ': 21.7 מ' (8.2 מ ') ו'גבוה מאוד': 35.3 מ '(14.2 מ').

ההליך המתואר לעיל מבהיר כי מערך נתונים זה משמש כפרוקסי מסדר ראשון לנתוני גובה בניין בפועל. הנתונים נלקחו בשנת 2000, שאינם תואמים את נציג שנת 2017 עבור מפת CONUS LCZ זו. ככזה, השוואת מפת LCZ מול מערך הגובה של בניין זה מזניחה עלייה של 6.7% נטו באדמות עירוניות מפותחות, הנגזרות כההבדל בין NLCD 2016 ל -2001 מפותחים בכיתות 76. כמו כן, 75 גובה הבנייה של פאלקון הם קטגוריים ומשקפים את השונות שנצפתה בסן פרנסיסקו, שאינה מייצגת בהכרח את כל האזורים העירוניים האחרים של CONUS. טביעת הרגל המרחבית מוגדרת על ידי קבוצות בלוקים של מפקד אוכלוסין, המשתנות בצורתן ובקנה המידה שכן מטרתן המקורית היא לדגום את האוכלוסייה. ההשפעה של מגבלות אלה מוערכת באמצעות מערכי נתונים עדכניים יותר, ברזולוציה גבוהה וזמינים באופן חופשי מהמטרופולינים של אוסטין, בוסטון, דה מוין, לוס אנג'לס וניו יורק, המכסים למעלה מ -5 מיליון בניינים (לוח משלים S2).

שטח פנים אטום

משטח אטום נלקח ממוצר ה- National National-Cover-Database (NLCD) 2016, המספק את האחוזים של כל 30 מ 'פיקסל המכוסה על ידי משטח אטום מפותח (טווח 0 עד 100%). מחברים אלה יצרו את מערך הנתונים בארבעה שלבים: (1) פיתוח נתוני אימון באמצעות מוצרי אור לילה, (2) דוגמנות משטח אטום באמצעות מודלים של עץ רגרסיה ותמונות Landsat, (3) השוואה בין תפוקות מודל ראשונות להסרת אומדנים כוזבים עקב הרפלקציה גבוהה. מאזורים לא עירוניים ולשמור על ערכים אטומים לשנת 2011 ללא שינוי משנת 2011 עד 2016, ו (4) עריכה סופית וייצור מוצרים (ראה סעיף 6.1 ביאנג ואח '. 29 לפרטים נוספים).

גורם נוף השמיים

מידע על גורם השמים (SVF) זמין עבור 22 ערים בארה"ב (אטלנטה, בולטימור, בוסטון, באפלו, קליבלנד, דנבר, אל פאסו, פרסנו, לאס וגאס, מיאמי, אורלנדו, פילדלפיה, פורטלנד, ריצ'מונד, סולט לייק סיטי, סן דייגו, סן פרנסיסקו, סן חוזה, סיאטל, טמפה, טוסקון וושינגטון הבירה) ומתקבלות מתמונות Street View (GSV) של Google שנבדקות באמצעות גישת למידה עמוקה 78,79. מדגם מלא של מיקומי GSV בכל עיר מתקבל באמצעות ממשק ה- API של מפות Google לכל המיקומים, קוביית תמונות מורידה בצורה של שש תמונות של 90 מעלות שדה ראייה הפונות כלפי מעלה, כלפי מטה, צפונה, מזרח, דרום , ומערב. התמונות מפולחות על ידי רשת עצבית מתפתלת שהותאמה היטב עם תמונות GSV של 90 מעלות מערים ברחבי העולם והניבו שש כיתות: שמיים, עצים, בניינים, משטחים אטומים וחדירים וחפצים שאינם קבועים 79. כאן נעשה שימוש רק ב- SVF, המתקבל על ידי הקרנת החצי העליון של קוביית התמונה לעין דג חצי כדורית כדי לחשב את ה- SVF באמצעות שמיים ופיקסלים 80 שאינם שמיים. תמונות GSV מטבע הדברים מוטות כלפי מיקומי רחוב, ולכן אין הרבה דוגמאות לשטחים פתוחים, כולל פארקים, מסלולי גולף, חצרות אחוריות ואזורים טבעיים באופן כללי 78. על כן, השוואת נתונים עם נתוני SVF (נעים בין 0–100%) נעשית רק עבור שיעורי LCZ העירוניים בתחום CONUS.

שטף חום אנתרופוגני

שטף חום אנתרופוגני ממוצע (AHF, Wm −2) הנתונים מסופקים על ידי דונג ואח '. 81, הזמינים ברחבי העולם ברזולוציה מרחבית של 30 קשת שניות. מוצר זה כולל ארבעה רכיבי חימום: אובדן אנרגיה, חימום מתחום המסחר, המגורים והתחבורה, חימום מהמגזר התעשייתי והחקלאי וחימום ממטבוליזם אנושי.

אוּכְלוֹסִיָה

נציגי אוכלוסיית התושבים לשנת 2015 ניתנים על ידי רשת האוכלוסין העולמית של יישוב האדם העולמי (GHS-POP) 82,83. נתונים אלה מופרדים ממפקד האוכלוסין של CIESIN GPWv4 84 או מיחידות אדמיניסטרטיביות לתאי רשת עם רזולוציה של 250 מ ', מניפולציה שמודיעה על ידי ההתפלגות והצפיפות של הבנייה כפי שמופה במערך הנתונים של שכבת ההתיישבות האנושית 3,5,83 . למערכי נתונים אחרים של אוכלוסייה גלובלית ויבשתית ויכולות השימוש בהם, הקורא מופנה ללייק ואח '. 85 .


התקן National Transmission Transmission Format (NITF) הוא פורמט רסטר המוגדר על ידי הלוח הטכני של תקני NITF. הפקודה Joint Interoperability Test Command (JITC) מאשרת מערכות המיישמות את פורמט NITF לעמידה בתקן. מודול NITF/NSIF מספק תמיכה תואמת JITC לפורמט הקובץ NITF והוא נדרש לתמיכה ב- NITF תואם ב- ENVI. מודול ENVI 5.0 NITF/NSIF נבדק על ידי JITC והוסמך לרמת מורכבות 7 עבור NITF 2.1 ורמת מורכבות 6 עבור NITF 2.0 (הגבוה ביותר לכל פורמט). ENVI 5.1 עומד בתקנים אלה.

צור קשר עם JITC למידע מפורט אודות תכנית ההסמכה של NITF, כולל פירוט קריאה/כתיבה פונקציונאלי וחריגות בדיקות.

מודול NITF/NSIF דורש רישיון נפרד. אנא צור קשר עם נציג המכירות שלך.

מערך נתונים תקף של NITF מספק כותרת ראשית המזהה את הקובץ כמאגר נתונים של NITF ומתאר את תוכן הקובץ. בדרך כלל אחרי הכותרת קטע אחד או יותר של נתונים. כל קטע נתונים מורכב מכותרת משנה של קטע המזהה את סוג ומאפייני הנתונים, ואחריהם הנתונים עצמם.

עיין בסעיפים הבאים:

כותרת ראשית

מערך נתונים של NITF עשוי להכיל כל או כל סוג הפלחים הזמינים לגרסה זו, אך כל מערך הנתונים של NITF חייב להכיל כותרת ראשית. הכותרת הראשית של NITF מתארת ​​את כל הקובץ, כולל מידע מקור, מידע אבטחה, גרסת הקובץ וגודלו, והמספר והסוג של כל פלחי הנתונים הכלולים במערך הנתונים של NITF.

פלחי אבטחה

פורמט NITF תוכנן להכיל מידע שנחשב רגיש, ולכן הוא כולל נתוני כותרת המתארים את הסטטוס של כל מידע שאינו זמין לציבור הרחב. כותרת הקבצים הראשית מכילה מידע אבטחה המתאר את רמת האבטחה של כל מערך הנתונים של NITF, וכל קטע מכיל גם מידע אבטחה בכותרת המשנה שלו, שכן סודיות הנתונים בתוך קובץ עשויה להשתנות. רמת האבטחה של כל הקובץ (T = סודי ביותר, S = סודי, C = סודי, R = מוגבל, U = לא מסווג) זהה או גבוהה מזו של הפלח המוגבל ביותר בקובץ. NITF 2.0 משתמש באותם שדות כמו NITF 1.1 כדי להכיל מידע אבטחה, בעוד NITF 2.1 הפחית כמה שדות מידע אבטחה והוסיף שדות חדשים.

שינויים אלה מתוארים בטבלה הבאה. לתיאור מפורט של שדות אבטחה אלה, עיין במפרטי NITF כדי לקבוע אילו מטא נתונים רלוונטיים לגרסת קובץ NITF שלך.

שדות אבטחה של NITF 1.1/2.0

הוראות פרסום
סוג סיווג
תאריך סיווג
פטור מסווג
לְהוֹרִיד בְּדַרגָה
תאריך שדרוג לאחור
טקסט סיווג
סוג רשות הסיווג

רשות הסיווג
סיווג סיווג
תאריך מקור אבטחה

בעת המרה בין פורמטים של NITF, שדות האבטחה ימופו בהתאם לנספח G של נוהלי יישום התקן הלאומי לפורמט שידור התמונות (IPON), טיוטת תיאום גירסה 0.3 א, 14 בינואר 2005.

פלחי תמונות

Image segments contain raster data, typically image data, intended for display or analysis. Each image segment contains a single image consisting of one or more bands of data (NITF 2.0 allows one, three, or four bands of data in an image, and NITF 2.1 allows up to 999 bands).

All bands within an image segment must have the same data type, dimensions, storage order, and map information, although these characteristics can vary across different image segments. Each image segment may contain specific display instructions, including color lookup tables for single-band images and default display bands for multi-band images.

Images can be stored in integer data types in NITF 2.0 and in integer and real data types in NITF 2.1. Images can also be compressed using a variety of algorithms including JPEG DCT, Vector Quantization, Bi-level, JPEG 2000 NPJE (NITF 2.1 only), and JPEG 2000 EPJE (NITF 2.1 only). Images can be broken into blocks, providing an orderly set of subimages (or subarrays). Additional information describing the collection, intended use, wavelengths, and comments can also be stored with the image.

Masks

Mask information stored in image segments identifies pixels that are invalid or not intended to be displayed, and should therefore not be displayed.

Images that are rotated or have gaps can also contain a mask indicating which portions of the image should not be used for display or analysis. Two types of image masks are used in NITF files:

  • Blocked image masks are used to mask entire blocks of image data.
  • Transparent pixel masks are used for masking individual pixels or groups of pixels within an image block.

When an image segment containing masked blocks or pixels is displayed, pixels from images or graphics underneath the image segment show through and are displayed even though they would ordinarily be obscured. If a transparent pixel occurs with nothing displayed under it, or if for any other reason there is no display information for a pixel, the background color specified in the main file header is displayed.

Graphic/Symbol Segments

Symbol segments can contain Computer Graphics Metafile (CGM), bitmap, or object elements, while label segments contain graphical text elements. The CGM format allows direct control of all display elements contained in the graphic including color, size, and orientation of objects. CGM graphics can contain complex lines and polygons, as well as displayable text. Multiple annotations can be combined in a single CGM, so symbol segments with CGM graphics may actually contain multiple sets of graphical primitives.

NITF 2.1 files can contain graphic segments with CGM graphic and graphical text elements, while NITF 2.0 files contain two segment types for the same purpose: symbol segments and label segments. Both the NITF 2.0 symbol segment and the NITF 2.1 graphic segment can contain CGM graphics.

The NITF 2.1 graphic segment can only contain CGM graphics, but NITF 2.0 symbol segments can contain other graphical display elements as well. Symbol segments can contain bitmaps (color-mapped bitmaps to be displayed on the composite) or objects (graphics from a limited set of graphical primitives, including lines, arrows, circles, and rectangles).

For NITF 2.1, the bitmap and object symbol types as well as the label segment have been deprecated. Bitmaps are stored in image segments instead of symbols, and object symbols and labels have been removed in favor of the more general and powerful CGM.

Label Segments

Label segments, available only in NITF 2.0, contain displayable text intended to be drawn with the NITF display. In addition to this text, a label segment includes display instructions such as font, color, size, and a background color to display behind the text.

There are many required CGM elements to draw the data contained in a NITF 2.0 label segment. Element details are described in the MIL-STD-2301A specification.

Annotation Segments

NITF 2.0 symbol and label segments, as well as NITF 2.1/NSIF 1.0 graphics segments, are collectively referred to as annotation segments, as illustrated in the following diagram.

Image, text, and extension segments are available in every version of NITF, while label and symbol segments can occur only in NITF 2.0 datasets. Graphic segments occur only in NITF 2.1 datasets.

Because of the similarity between the symbol segments and label segments in NITF 2.0 files, and the graphic segments in NITF 2.1 files, ENVI combines these segments into a single conceptual type (annotation segments). Annotation segments can contain symbol, label, or graphic segments, and they might include text, ellipses, polylines, bitmaps, and other objects. Annotation segments do not exist in any NITF file, and they are not mentioned in the NITF specification documents. They are a simplification used to reduce the overall number of segment types.

Annotation segments and image segments both carry information intended to be displayed graphically, and both are referred to as displayable segments.

Annotation Objects

Because CGM graphics can display multiple graphical elements, each annotation segment must store multiple displayable features, referred to as annotation objects. NITF 2.0 and 2.1 annotation segments can contain multiple CGM annotation objects. Each NITF 2.0 annotation segment can only contain one non-CGM label, bitmap, or object symbol annotation object. The type of object determines which fields will be filled in the annotation object.

Text Segments

Text segments consist of textual information that is not intended for graphical display. Examples are notes explaining target information, or US Message Text Format (USMTF) notes for other users.

Data Extension Segments

Data Extension Segments (DESes) contain data that cannot be stored in the other NITF segments. An example is the NCDRD Attitude Data DES, CSATTA. A list of unclassified, registered DESes is available at the JITC web site.

ENVI only supports NITF Commercial Dataset Requirements Document (NCDRD) DESes. You cannot edit, create, or delete NCDRD DESes through the Metadata Editor.

If a NITF file contains valid supported DESes, they are automatically saved in the output file. When opening a NITF image, ENVI will not read the DES user-defined subheader if the input data format does not mirror the format in the accompanying XML definition file. When writing a NITF file that contains a DES with no corresponding XML file, ENVI passes through this unknown DES in NITF 2.1 and NSIF 1.0 files only. ENVI does not support unknown DESes in NITF 2.0 files. Also see Data Extension Segments.

Display Levels

The NITF format supports multiple image, graphical, and displayable text elements. A NITF dataset can contain all displayable segments (image, graphic/symbol, and label), allowing for raw imagery plus ancillary information. Each displayable segment contains information controlling the location of the display element in the composite. Each segment also contains a display level that determines which elements should be displayed on top of others, obscuring the lower-level displayable elements from view without corrupting the hidden portion of those lower-level displayable elements.

Wavelength Information

Wavelength information can be stored in several different ways in a NITF image segment. The BANDSB TRE contains the most information, followed by the BANDSA TRE, and the band subcategory settings contain the least information. ENVI will attempt to read wavelength information from a NITF file from each of those locations, in order, until wavelength information is found. If no information is present in any of these locations, the file is opened without wavelength information.

הפניות

For more detailed information about the NITF/NSIF format and its components, see the technical specifications on the Reference Library for NITFS Users web site.


דִיוּן

This study provides one of the first landscape-scale efforts to explore spatial patterns and landscape drivers of dynamic surface-water connections between depressional wetlands and streams in the PPR. These VC wetlands were found to connect to streams predominately through merging with and being subsumed by other wetland features. Both small (2–10) and large (>100) wetland clusters (or complexes of surficially connected or consolidated wetlands) were common across the study area. The consolidation of wetlands was particularly common around lake features, many of which occur in open, flat basins in which excess water can result in 100% to almost 600% increases in surface-water extent (Vanderhoof and Alexander 2015) (Fig. 6). Initial rises in lake levels may merge wetlands with lakes, but wetlands may still retain wetland vegetation and function. However, as lake levels continue to rise, merged wetlands are completely subsumed by lakes and no longer function as independent depressional wetlands (Mortsch 1998). Features were observed to expand and contract in response to variable wetness conditions, connecting and disconnecting lakes, streams and wetlands. Previous work in the PPR documented variability in wetland-to-wetland and wetland-to-stream connectivity as surface water merges in low relief areas and/or wetlands fill and spill (Leibowitz and Vining 2003 Kahara et al. 2009 Shaw et al. 2013 Vanderhoof et al. 2016), and sought to predict connectivity based on storage capacity and spill point elevation (Huang et al. 2011b), temporal changes in surface-water extent (Rover et al. 2011), and wetland vegetation and water chemistry (Cook and Hauer 2007). This study sought to move from the prediction of connections for individual wetlands to explaining variability in the abundance of such surface-water connections on a landscape scale.

The probability of hydrologic connectivity has been most commonly linked to the proximity or distance between depressional wetlands and streams (Tiner 2003 Kahara et al. 2009 Lang et al. 2012). Yet this study found that substantial variation in the mean Euclidean and flowpath distance to stream for VC and NCO wetlands between ecoregions makes it extremely problematic to identify VC wetlands based on distance alone. For example within 400 m of a stream on the Des Moines Lobe, 78% of the VC wetlands were connected, while the Drift Plains had only 52% of the VC wetlands connected at that same distance. Consequently while mean distance to stream emerged as an important variable in explaining the abundance of SI and NCO variables, it was not ranked as important in explaining the abundance of VC wetlands. Instead, for VC wetlands, wetland arrangement (wetland to wetland distance), as well as the temporal dynamics of surface-water expansion, also need to be considered. Additionally, in landscapes with little relief, flowpath distance from a fixed spill point to a fixed stream entry point may be less relevant. Surface flows connecting wetlands to streams in this area may not follow a single, theoretical flowpath, but instead are likely to expand and spread across the flat surface as excess water accumulates in a catchment.

The variables considered in the models represent several different factors in determining landscape-scale connectivity including (1) wetland abundance, (2) wetland arrangement (distance variables), (3) the availability of surface water connections (stream and lake abundance, surface water extent), and (4) potential influences on water accumulation and flow (topography and land use variables). However, across the PPR, variability within and between these variables is intrinsically tied to variability in landscape age (since last glacial retreat) and corresponding drainage development across the region (Ahnert 1996). The last maximum glacial extent (the Wisconsin glacier) diverged around the Lowlands ecoregion, leaving the older landscape (>20,000 BP) with a well-developed drainage network (Clayton and Moran 1982). In contrast, the Wisconsin glacier retreated from the Missouri Coteau and Drift Plains ecoregions by 11,300 BP, meaning the drainage system is still developing in these ecoregions. In ecoregions with low drainage development, surface water is being stored in glacially formed depressions (Winter and Rosenberry 1998 Stokes et al. 2007), resulting in an inverse relationship between stream density and surface-water extent (Table 10). The drainage network in the PPR is also increasingly modified with the expansion of ditch networks and tile drainage in association with agricultural activities (McCauley et al. 2015). Ditches, pipes and field tiles can increase connectivity between waterbody features, however, both filling wetlands with soil and lowering the water table through increased water withdrawal can decrease expected surface-water connectivity (DeLaney 1995 Blann et al. 2009 McCauley et al. 2015). Our finding regarding the importance of predicted anthropogenic drainage may be related to the relation between land use and wetland connectivity and wetland loss (Miller et al. 2009 Van Meter and Basu 2015). These potential interrelations merit further study.

It is critical to note that the aim of this analysis was not to document all surface-water connections, recognizing limitations of our input datasets, but instead, to characterize spatial patterns for a subset of wetlands that merge with a stream over a wide range of wetness conditions and a relatively large study area. A complete analysis of wetland-to-stream connectivity would also need to consider narrow and temporary (e.g., in response to rain events and peak snow melt conditions) surface connections, groundwater connections, as well as chemical and biological connections (U.S. EPA 2015). This analysis allowed us to identify regionally relevant parameters that can provide a preliminary means to explain variability in the abundance of wetlands that affect streamflow and are subject to regulatory programs. Patterns in VC wetland abundance, for example, demonstrate that wetland abundance and arrangement in combination with expanding surface-water extent provides important opportunities for wetlands to merge with streams, a finding consistent with related literature. Limitations of this study are potential bias due to unmeasured variables and the glacial history of the landscape, which may complicate efforts to apply these variables to different ecoregions.

Further, patterns in the mechanism of connection show that in addition to SI wetlands, depressional wetlands and open waters can play critical roles in moving surface water across the landscape. These findings are particularly relevant to floodplains, permafrost landscapes and formerly glaciated landscapes that often exhibit low topographic gradients, low rates of infiltration, and low stream density. Runoff events in these landscapes rarely satisfy the threshold surface storage volume so that excess surface water (precipitation inputs exceeding soil infiltration and evapotranspiration) tends to accumulate instead of leaving the watershed as stream discharge (Hamilton et al. 2004 Yao et al. 2007 Aragón et al. 2011 Kuppel et al. 2015), leading to wetland consolidation and surface-water connections.


4. Challenges of measuring population exposure to SLR

This review found numerous challenges in the literature when measuring population exposure to SLR and related impacts. The estimates are based on gridded datasets that include DEMs, flooding and extreme sea-levels, and population distribution. Hinkel ואח ' (2014), Lichter ואח ' (2011), and Mondal and Tatem (2012) have shown that estimates of land and population exposure to SLR and coastal flooding vary significantly according to which datasets are employed. Final estimates depend on the input data, and decisions about key parameters such as time horizons, warming scenarios, and ecological or socioeconomic processes and feedbacks including adaptation measures assumed. Four main challenges are discussed here based on our review and analysis.

First, estimates of populations exposed to SLR rely on elevation data to define zones of inundation or potential hazard parameters (Small and Nicholls 2003, Ericson ואח ' 2006, Mcgranahan ואח ' 2007, Lichter ואח ' 2011). Global DEM datasets include GLOBE which combines six gridded DEMs and five cartographic sources the US Geological Survey GTOPO30 which combines eight raster and vector sources of topographic information and the Shuttle Radar Topography Mission (SRTM) elevation data with a vertical resolution of 1 m and spatial resolution of approximately 90 m at the equator (Mcgranahan ואח ' 2007, Lichter ואח ' 2011, Brown ואח ' 2018). Any DEM has vertical and horizontal uncertainties (Wolff ואח ' 2016). For example, while there are enhanced versions of SRTM data (see Mondal and Tatem 2012, Kulp and Strauss 2019), SRTM datasets have uncertainties in urban and forested areas where radar technologies capture infrastructure or tree elevation as opposed to ground elevation (Dasgupta ואח ' 2011, Marzeion and Levermann 2014). Global mean error in SRTM's 1–20 m elevation band has been found to be 1.9 m (and 3.7 m in the US) (Kulp and Strauss 2019). Choice of DEM also has significant effects on estimates. Hinkel ואח ' (2014) found the estimated number of people flooded according to the GLOBE elevation model to be double that calculated using the SRTM elevation model, and Kulp and Strauss (2019) found that using CoastalDEM instead of SRTM resulted in estimates of population exposure to extreme coastal water level that were three or more times higher. Improvements in elevation datasets are required to enable accurate estimates of land area exposure (Gesch 2009).

Second, estimating coastal floodplains and potential coastal flooding requires datasets on extreme sea levels. A significant limitation of flood analysis at all scales is limited availability of accurate datasets (Gesch 2009, Mondal and Tatem 2012, Neumann ואח ' 2015). In their analysis of coastal flood exposure, Muis ואח ' (2017) found that correcting vertical data of sea-level extremes and land elevation for two sea-level datasets—DINAS-COAST Extreme Sea Levels (DCESL) dataset and the GTSR dataset—resulted in an increase of 16% and 20% respectively in flood exposed land, and 39% and 60% respectively for exposed populations. Moreover, there are other drivers of flooding including storm intensity, and climate change affects frequencies, magnitudes, and tracks of storms thereby yielding low confidence in how storm surges and extreme sea levels may alter over time (Marzeion and Levermann 2014, Brown ואח ' 2018, Knutson ואח ' 2019). Hazard parameters must be set within models, but it is not always clear which hazard parameters to select, or whether to select extremes or means.

Third, estimates of population exposure to SLR require population distribution datasets. Key datasets are the Gridded Population of the World (GPW), the Global Rural Urban Mapping Project (GRUMP), and LandScan Global Population database, all of which are developed from census data. Census data are available by census accounting units, with uncertainty in the spatial distribution of populations within each unit. GPW was the first global and widely available dataset that transformed census data to a grid it emphasises input data rather than modelling distributions (Nicholls ואח ' 2008a). GRUMP combines population data with census units, allocating people into urban or rural areas to coincide with UN estimates and using an urban extent assessment derived mostly from the night-time lights dataset of the US National Oceanic and Atmospheric Administration (NOAA) (Mcgranahan ואח ' 2007, CIESIN, IFPRI, World Bank and CIAT 2011, Mondal and Tatem 2012). LandScan disaggregates census data within administrative boundaries based on weightings derived from land cover data, proximity to roads, slope, and populated areas (Bhaduri ואח ' 2007, Mondal and Tatem 2012). As always, all these datasets have limitations. Spatially detailed census data are often not available for low-income countries some census data are over 10 years old informal settlements and undocumented people might not be accounted for in census data and datasets that use night-time lights as a proxy for population can miss smaller coastal settlements with limited development and where electricity supply is intermittent or unavailable (Dugoua ואח ' 2017). Different datasets produce differing population distributions. An analysis of variation in estimates of populations in LECZ as derived from LandScan and GRUMP found that eight of the top ten locations with the largest differences in estimates were small low-lying island countries or territories, including for example Tuvalu (Mondal and Tatem 2012). Consequently, the limited spatial resolution of census data means there is uncertainty as to the location of populations relative to SLR and its related hazards (Small and Nicholls 2003, Foley 2018).

Finally, many studies set specified levels of future GMSLR based on different emission and warming pathways over the coming decades, centuries, and millennia (e.g. Pfeffer ואח ' 2008, Brown ואח ' 2016, Clark ואח ' 2016, Mengel ואח ' 2016). Debates regarding GMSLR estimates and forecasts relate to spatial variations, temporal uncertainties, rates of ice mass loss especially from Greenland and Antarctica, ocean dynamics, emission scenarios, and changes in gravity associated with water mass redistribution, leading to significant regional variations from the global mean (Clark ואח ' 2016, Jevrejeva ואח ' 2016, Mengel ואח ' 2016, Geisler and Currens 2017). Subsidence and isostatic uplift further affect local sea level projections (Hinkel ואח ' 2014, Erkens ואח ' 2015, Brown and Nicholls 2015). There are temporal uncertainties in forecasting GMSLR associated with projected rates (e.g. Bindoff ואח ' 2007, Solomon ואח ' 2007) natural, multi-decadal oscillations (Sérazin ואח ' 2016) and the pace of ice mass loss from the Greenland and Antarctica ice sheets (Tol ואח ' 2006, Hansen 2007, Pfeffer ואח ' 2008, Nicholls ואח ' 2011, Jevrejeva ואח ' 2016). Thus, future GMSLR is uncertain, something that many studies address by using higher and lower bounds of GMSLR in their analyses (IPCC 2019, c.f. Marzeion and Levermann 2014).

In summary, reliability of the estimates of both current and future population exposure to GMSLR and related hazards depend on the reliability of input datasets, with precision not always reflecting accuracy. Global quantitative estimates rely on global datasets, yet there are widely acknowledged challenges in estimating land elevation, extreme sea levels, population distribution, and GMSLR scenarios. These problems are amplified for studies seeking to estimate population exposure to GMSLR in the future. For example, the uncertainties in current population distribution estimates mean that future estimates also have large uncertainties.


The Shp2Vec Tool

The Shp2Vec (shape file to vector data) tool is in the SDKEnvironment SDK תיקייה. This tool takes vector shape data and creates the BGL files used by Prepar3D. The vector shape data is in standard ESRI shape file format. This format includes three file types, .shp (shape data), shx (shape index data), and .dbf (database file containing attributes of the shape data). The ESRI shapefile is a public domain format for the interchange of GIS (geographical information system) data. The wide availability of tools which support the shapefile format and the fact that the format is publicly documented made it the logical choice as the input to the Shp2Vec tool.

The Shp2Vec tool is command line driven, and takes the following parameters:

ה נָתִיב points to the folder containing all the shape data. Use a single period to specify the current folder. All shape files in the specified folder, but not any sub-folder, are examined by the tool if the filename contains the חוּט as part of the filename. The first three characters of a file can be anything, but all the remaining characters, except the extension, must be identical to the string. As a convention, the first three characters are set to FLX for airport boundaries, HPX for hydro polygons, and so on (see the table below for a full list), and then the common string is set to the quad numbers. The quad numbers can be located in the Base File Information grid (for example, Hong Kong SAR is in the quad 78 24). The Shp2Vec tool then simply looks for files with the quad string present in the name. For example, if you look at the filenames in the SDKEnvironment SDKVector ExamplesExample1SourceData folder you will see that they all have 7824 as the common string. This means that entering the following line will process all the shape files:

Of course, other file naming conventions could be used. The default behavior of the tool is to provide replacement data for the quad cell. The flag -ADDTOCELLS is optional, and simply indicates the new data should be merged with existing data, and not replace it.

Performing a task with the Shp2Vec tool, such as replacing vector data, or perhaps using surfaces to exclude autogen or land classifications, or to flatten an area to use as an airport boundary, the following general process should be followed:

  1. Use a shape file editor to create the vector data, or surface shapes, that are the basis of the change. A shape file editor is לֹא provided as part of the SDK. There should be one flavor of data per shapefile. Whereas most vector types only require 2D co-ordinates, ensure that vector data for AirportBounds and WaterPolys is 3D (that is, includes elevation data).
  2. Create a single folder with the shapefiles in it, named according to a convention but fitting the format described above. Each shapefile consists of a .dbf, a .shx, and a .shp file.
  3. Add to the folder one of the proprietary XML files supplied with the SDK for each flavor of data. These XML files provide information to the tool. It is very important to point out that they should not be edited, the GUIDs and values in them are hard-coded in Prepar3D, and there is no value in altering the content of these files. However, it is important to rename them within the folder to match the naming of the shape files. So for example, the XML file FLX7824.XML is named to match the airport boundary data of Hong Kong SAR airport contained in the FLX7824 shapefile.
  4. The .dbf file can be edited in a shapefile editor or dbf editor. Usually these edits take the form of replacing GUIDs to match the task you wish to complete. Notice that the columns of the .dbf file exactly match the data definitions in the XML file.
  5. Run the Shp2Vec giving your folder as input.

The table below links to typical XML files, which are all used in Shp2Vec Example 1, except the exclusions vector data, which is used in Shp2Vec Example 2.

The .dbf file contains two columns, UUID and GUID. Enter the following GUIDs in the GUID column to achieve flattening, or Autogen or land class exclusions. Airport boundaries are one example of the use of Flatten + MaskClassMap + ExcludeAutogen.

The .dbf file for exclusion polygons have a GUID column, and there are three options for what to enter here:

1. Exclude all vector data by using a null GUID (all zeros).

2. Exclude general classes of features that have an attribute block (for example, all roads or all water polygons) by using one of the GUIDs from the Vector Attributes table. Note that some of the entries affect vector autogen associated with the excluded feature.

3. Exclude specific types of shapes (for example, only one lane gravel roads or only golf course polygons) by using one of the GUIDs listed in Vector Shape Properties GUIDs.

הערות
  • The Shp2Vec tool does not process vector data that crosses 180 degrees Latitude, or the Poles.
  • The clip levels are the defaults used by Prepar3D נתונים. Clip level 11 is QMID level 11. Setting higher clip levels will create more detailed data, but at the expense of size and performance. Note the use of clip level 15 for freeways.

Vector Attributes

The following table gives the GUIDs that apply for each type of vector data. Refer to the example XML files on how they are used.

F = traffic moves מ reference node (one direction, cars drive away from vertex 0 towards vertex N).

ט = traffic moves towards reference node.

הערות
  • The unique IDs that are marked as "does not go into the simulation", are used to troubleshoot issues with the data creation process.
  • The texture GUIDs (noted in the Attribute Block column) reference into in the Scenery Configuration File.

Shp2Vec Sample 1: Hong Kong SAR Area

ה Vector Examples/Example1/SourceData folder includes all the files for all the types of vector data present around Hong Kong SAR. To run the sample type the following in the command line, after navigating to the SDKTerrain תיקייה.

The BGL file will be written to the same folder as the data, an example of the output is in the Vector Examples/Example1/Output תיקייה. The command-line output will give some statistics when the tool runs correctly, for example the output from running the tool with the above example data is shown below:

Shp2Vec Sample 2: Excluding and Replacing around Hong Kong SAR (VHHH).

ה Vector Examples/Example2/SourceData folder includes a sample excluding and then replacing AirportBounds geometry around Hong Kong SAR. To run the sample type the following in the command line, after navigating to the SDKTerrain תיקייה.

Note the importance of the -ADDTOCELLS flag to add this data to the existing vector data. In the TmfViewer tool, the new airport boundary is shown in the following image.


Use GIS software to query spatial data.

Spatial data updates are accessed, read, interpreted and edited to ensure they are in an acceptable format to meet functional requirements .

Entities and attributes are used to display spatial information that will assist in the delivery of spatial information services .

Entity and attribute queries of spatial data are used to generate summary results.

Results from queries are used to present spatial data graphically according to organisational guidelines .

Entity and attribute queries are applied when using univariate statistics to explore the dataset.

Routine spatial data problems or irregularities are solved in the course of the activity or via consultation with relevant personnel .

Keyboard and computer hardware equipment are used to meet functional requirements on speed and accuracy and according to OHS requirements .

Solve problems using GIS software.

Existing spatial and aspatial data is adjusted to integrate with new data to meet documentation and reporting requirements and to add to personal learning and organisational intelligence.

Geospatial techniques on appropriate software are used to combine spatial layers data to solve problems, highlight selected data features and improve the visual aspect and understanding of the project.

Spatial overlay techniques are used to solve problems and generate results pertaining to the spatial project as specified by relevant personnel.

Cartographic integrity is tested and validated to solve accuracy and quality problems.

Produce reports based on basic spatial analysis.

Map or plans are integrated into project reports.

Results, summary statistics and graphs from a mapping application are incorporated into a project.

Legal and ethical requirements are adhered to according to organisational guidelines.

Spatial dataset to be archived is manipulated where necessary to ensure completeness.

Metadata is created according to accepted industry standards.

New and existing spatial data is stored and archival details are recorded according to organisational guidelines.


Merging DEMs or other raster datasets and clipping Raster dataset to vector line? - מערכות מידע גיאוגרפיות

GIS Methods

For GIS analysis of the trails and hikes in Rocky Mountain National Park, the software package ArcGIS from ESRI was utilized. This allowed for convenient spatial analysis, map genernation, and information storage for this entire endeavor.

עיבוד נתונים

After all of the data needed was identified and collected, data procressing could begin. The beginning layers included a Rocky Mountain National Park (RMNP) boundary shapefile, bounding quads shapefiles, RMNP trails and trailhead shapefiles, lakes and ponds shapefiles, streams and rivers shapefiles, roads shapefile, cities shapefile, counties shapefile, elk and bighorn sheep winter ranges shapefiles, and a digital elevation model (DEM) grid. The first step in data processing was to define the study area was by including all bounding quads that contain some part of Rocky Mountain National Park. Additionally, a trail segment was digitized representing the well known Keyhole route to the summit of Long's Peak.

Trail Digitization

Then, a common projection was chosen for the project. A projection is the conversion of a spherical object to a flat surface (Theobald, 2007). The UTM North American Datum 1983 projection with the GCS 1983 North American coordinate system was chosen because UTM (Universal Transverse Mercator) projection is broken in to a grid of 60 zones each 6° wide with 0.5° of overlap and stretching from 80°N to 80°S which allows for a maximum error of 1 per 2,500 for each zone (Theobald, 2007). This projection is best used for small areas, such as Rocky Mountain National Park, because minimizes distortion shape and angles while distorting area (Monmonier and de Blij, 1996). This is known as conformality. This project&rsquos zone of interest is 13N. Most of the data was already in this common projection but each layer was checked to confirm. Any data that was not already in UTM North American Datum 1983 Zone 13N was converted by changing the projection in properties table.

Next, a shapefile was created from XY data giving the coordinates for place names of mountain summits and waterfalls. A spatial reference had to be defined for the new shape file so that it could be projected along with the rest of the data and the projection was defined as UTM North American Datum 1983 Zone 13N, the common projection for the project. The data was then verified by overlaying the place names over a DRG quad to make certain the points lined up.

Then, a file geodatabase structure was conceived and a working file system was defined. The file geodatabase system was chosen to ensure adequate memory capacity. File geodatabases have 1 TB of file space which allows for large data storage, faster query performance, and the ability to operate across different operating systems (Theobald, 2007). File geodatabases have a hierarchial file organization starting with the feature data set, which defines the spatial extent and projection of the geodatabase (Theobald, 2007). The feature dataset also contains the feature classes, which are points, lines, or polygons that share the same type of geometry (Theobald, 2007). Any raster data such as grids are stored outside feature datasets but still within the file geodatabase. There are also relationship classes that store relationships between features so behavior can be modeled, however none were used in this project (Theobald, 2007). This project had two file geodatabases. The first stored all raw and processed data including all of the hikes derived from combining individual trail segments through data analysis and the base map. The second file geodatabase stored the updated trail dataset as well as the zonal statistics tables and summarized hike tables.

Within the trail dataset, a field called shape_length contained a value that represented the flat-line length of the trail segment. In order to obtain a more realitic length for each segment, the elevation differences in the trail were accounted for. To achieve this, the surface length tool under 3D Analyst in Arc Toolbox was used. This created an additional field in the trails data table called surface_length.

All of the trail vector data was converted to raster format at this time for future data analysis using the ployline to raster conversion tool in Arc Toolbox. Before the conversion however, three fields had to be added. The first field was called raster_ndx, which was populated with a value of one. This value was then used to assign a value of one to each of the raster cells during future raster conversion. The next field was called difficulty_index. This field was left null and would be used to store the trail difficulty ratings that would be calculated later. The last field was called hike_id, which was a join field for summary values that would also be calculated later.

The data including trails, roads, rivers and streams, lakes and ponds, cites and counties, and the place name data could then be clipped to include only points, lines, or raster cells within the coordinate bounds of the RMNP boundary. This used several different tools from the ArcToolbox including the feature clip and raster clip.

At this point, data analysis could begin. First, a hillshade of the DEM was constructed using the Surface Analyst function in ArcGIS and the other map layers were layered with transparency on top of the hillshade to create a relief-looking map.

Then, zonal statistics were performed on the trail segment rasters. Zonal statistics provides summary statistics for each zone in a zone layer and only integer raster data can be input as a zone layer (Theobald, 2007). The parameters of interest were maximum elevation, minimum elevation, and mean elevation.

To be able to join and relate tables there must be a common table field, most commonly a name or number ID (Theobald, 2007). In this case, a field called seg_oid was added to the attribute table for the trail raster data and was populated with the corresponding object id from the trails dataset. The individual zonal statistics tables for each trail segment were then merged using merge tool in Arc Toolbox. This table was then joined to the updated trails dataset, which provided original trail information with the three added fields, raster_ndx still with just a value of one, and the other two still null, and the zonal statistics for each trail segment contained in the trails dataset.

Using the field calculator, the Trail Difficulty Rating (TDR) was derived using the following equation:

At this point, the difficulty_index field was populated with the results of the field calculation. This leaves the hike_id field still null.

The next step in spatial analysis of the trails in RMNP using data queries to select trail segments based on different criteria to create theme hikes for potential patrons. To this point, all trail data were composed of a network of separate trail segments. To create meaningful information from the compiled trail data, the concept of a hike was formulated. A hike was defined as any trail segments that connected a trailhead to a specific destination. These hikes included hikes to lakes, hikes to waterfalls, hikes to mountain summits, hikes through wildlife habitat, hikes to historic sites, and family oriented hikes. To identify destinations for hikes locational selection queries were performed to selct trail segments within: 10m of a lake or pond, 25m of a waterfall, 100m of a summit, 100m of a historic site or structure, 100m of bighorn sheep winter range, and trails with a centriod within a polygon defined by elk winter range. The winter ranges for the two wildlife species were used because the animals tend to group in the winter and migrate to lower elevations. These factors would lead to a better chance of seeing wildlife and not having to hike as far to see them.

From the results from each of the preceding queries, adjacent trial segments leading back to a trailhead were also selected and were exported as one new shapefile. Finally, the hike_id field was populated with a name for these combined trail segments. The TDRs were then summerized on the hike_id field, creating a new table for each hike that contained hike_id, the summed difficulty_index, and trail length in miles. These summary tables were joined to each hike dataset on the hike_id field. Each joined table was then imported into the first file geodatabase.

Finally, map creation could begin. First a base map was generated that included the hillshade and base data including summits and waterfalls, which were derived from the place name data, roads, streams, lakes and ponds, park boundary, trails, as well as cities and counties.

A map was then created for each individual hike theme. These maps highlighted hike paths corresponding to the appropriate theme and were color-coded according to their TDR.

We believe that the maps created here will have utility among potential RMNP patrons. Thier ability to plan more enjoyable excursions into RMNP will be enhanced through the use of our analysis. The structure of this website allows would-be RMNP hikers to match their skill level and destination interest to a hike cutomized to their needs. It is our hope that more people will, through the use of this website and the analysis within, get outside and enjoy all of the beauty and breath-taking wonder nature has to offer in our great system of national parks, especially, Rocky Mountain National Park.