Zusammenfassung
Im Bereich des autonomen Fahrens basieren zahlreiche Funktionen auf HD-Karten. Hierbei handelt es sich um Straßenraumkarten in HD-Qualität, die in standardisierten Formaten wie OpenDRIVE bereitgestellt werden. Der Fachbeitrag beschäftigt sich mit der Entwicklung einer Konvertierungsmethode zur Überführung von OpenDRIVE-Daten in eine GIS-konforme Datenstruktur und dem Import dieser Daten in QGIS. Dadurch eröffnen sich neue Möglichkeiten, HD-Karten durch kombinierte Analysen mit verschiedenen Geodatenquellen abzugleichen, um räumliche Realwelt-Informationen zu vervollständigen und zu erweitern sowie deren Geometrie, Topologie und Semantik anhand von z. B. Geobasisdaten zu validieren.
Zusammenfassung
Digitale Orthophotos (DOP) finden breite Anwendung im Geoinformationsbereich. Aktualität und Qualität sind daher schritthaltend sicherzustellen. Dieser Beitrag betrachtet die Lagegenauigkeit des DOP und bringt neben terrestrisch eingemessenen Kanaldeckeln eine neue Kontrollpunktgruppe in die Validierung ein: durch Radar mit synthetischer Apertur (SAR) aus dem All gemessene SAR-Passpunkte. Während sich Kanaldeckel automatisch im DOP finden und zuordnen lassen, erfordert die Messung von SAR-Passpunkten im DOP derzeit noch manuelle Arbeit. Anhand einer 8,4 km² großen Testfläche in München-Milbertshofen mit 133 Kanaldeckeln bzw. 67 SAR-Passpunkten werden beide Ansätze numerisch evaluiert. Die anschließende Diskussion erweitert den Blick über das Testgebiet hinaus auf eine landesweite Anwendung. Auch wenn sich derzeit die Validierung über Kanaldeckel einfacher gestaltet, können SAR-Passpunkte langfristig einen wertvollen Beitrag zur Verdichtung des Kontrollpunktfelds leisten.
Zusammenfassung
Die fußläufige Erreichbarkeit von Serviceeinrichtungen ist ein wesentliches Kriterium für die Bewertung innerörtlicher Räume, wie Ortsteile, Stadtviertel oder Wohngebiete. Mit dem Walk Score steht eine Methode zur Verfügung, mit der sich die Erreichbarkeit auf einem ebenen Straßen- und Wegenetz quantifizieren lässt. Die hier beschriebene Weiterentwicklung des Walk Score bezieht 3D-Informationen ein, die insbesondere für ältere Menschen von Bedeutung sind. Versorgungseinrichtungen werden dabei nach ihrer Bedeutung für diese Zielgruppe unterschiedlich gewichtet. Zudem werden (Steigungs-)Barrieren berücksichtigt. Das amtliche Digitale Höhenmodell DGM1 erfüllt die hohen Anforderungen an die Genauigkeit der Höhen. Die praktische Anwendung wird am Beispiel der Stadt Kaiserslautern demonstriert. Im Ergebnis zeigt sich ein konzentrisches Muster der Erreichbarkeit mit einem hohen Walk Score im innerörtlichen Bereich, der zur Peripherie hin abnimmt. Gleichzeitig sind wegen innerörtlicher Unterschiede von Topografie, Bevölkerungsverteilung und Versorgungsstandorten zahlreiche kleinräumige Abweichungen von diesem Muster vorhanden. Die Einbeziehung der detaillierten Höheninformation führt zu deutlich realistischeren Werten für den Walk Score. So wird den Bedürfnissen älterer Menschen Rechnung getragen und damit eine verbesserte Grundlage für eine seniorengerechte Stadtplanung geschaffen.
Zusammenfassung
Aus erfolgreichen Praxisbeispielen für Landmanagementverfahren wird ein Anforderungsprofil für ein »effizientes Landmanagementverfahren« (ELMV) abgeleitet. Die Überprüfung des FlurbG als Verfahrensrecht offenbart rechtlichen Anpassungsbedarf, der zunächst in einem Verfahrensmodell abgebildet wird und nachfolgend Niederschlag in einem Vorschlag für Regelungen eines Landmanagementgesetzes (LMG) findet. Dieses soll als Landesgesetz das FlurbG ergänzen.
Siehe auch zfv 2/2025, Bix Teil 1
Zusammenfassung
Mit dem zunehmenden Einsatz KI-gestützter Methoden gewinnt die Transparenz und Qualität von Immobilienbewertungen an Bedeutung. Insbesondere bei machine learning-Verfahren ist es entscheidend, die zugrunde liegenden Modelle sowie die Genauigkeit der Ergebnisse sorgfältig zu validieren. Der Beitrag beleuchtet konkret die Kernbegriffe der Modell-Performance und Ergebnisgenauigkeit. Während Modell-Performance die Fähigkeit eines Modells beschreibt, konsistente und unverzerrte Ergebnisse zu liefern, misst die Ergebnisgenauigkeit die Präzision der Schätzwerte. Eine klare Trennung dieser Begriffe und ihre verständliche Darstellung ist unerlässlich, da sie entscheidend für die Akzeptanz der Ergebnisse moderner Bewertungsverfahren in einer zunehmend KI-dominierten Ära sind. Die Kernbotschaft ist, dass auch auf dem Sektor der Immobilienwertermittlung die guten Grundsätze der Geodäsie, nämlich der Darstellung von Zuverlässigkeit und Genauigkeit von Messungen, wieder mehr Beachtung finden müssen, als es bislang der Fall ist.
Vor dem Hintergrund der aktuellen Entwicklungen muss zudem mittelfristig davon ausgegangen werden, dass klassische Wertermittlungs- und Analysemethoden an ihre Grenzen stoßen. Auch deshalb muss sich die moderne Immobilienbewertung verstärkt mit Methoden wie beispielsweise Random-Forest und neuronalen Netzen auseinandersetzen. Modelle werden trainiert und getestet, um Überanpassung zu vermeiden und durch Konfidenzintervalle die Genauigkeit der Vorhersagen abzusichern. In diesem Zusammenhang ermöglicht das Bootstrap-Verfahren – wie im Artikel erläutert – belastbare Schätzungen, selbst bei nicht normalverteilten Daten.
Siehe auch zfv 3/2025, Ache Teil 1
Siehe auch zfv 6/2025, Ache Teil 3
Zusammenfassung
Die geodätische Ausgleichungsrechnung ist vor allem durch ihre Problemfokussierung und Lösungsorientierung charakterisiert. So wird das Modell einer bedingten Ausgleichung verwendet, wenn ein parameterfreier funktionaler Zusammenhang vorliegt. Lassen sich die Beobachtungen hingegen explizit als Funktionen der unbekannten Parameter darstellen, wird das Optimierungsproblem in der Regel im Gauß-Markov-Modell formuliert. Für den Allgemeinfall eines impliziten funktionalen Zusammenhangs zwischen den Beobachtungen und den Parametern existiert das Gauß-Helmert-Modell. Durch diese Aufteilung entsteht häufig der Eindruck, dass es sich um eigenständige und voneinander unabhängige Modelle handelt. In der numerischen Optimierung ist diese Klassifizierung bisweilen unüblich. In diesem Beitrag werden mittels sequenzieller quadratischer Programmierung die Grundformen der geodätischen Ausgleichungsrechnung im Kontext der numerischen Optimierung betrachtet und auf ein gemeinsames Modell zurückgeführt. Weiterhin werden nummerische Verfahren aufgezeigt, die den notwenigen Approximationsalgorithmus zur Bestimmung der Lösung bereitstellen, und am Beispiel einer orthogonalen Regression demonstriert.
Aktuelles und Neues über nationale und internationale Fachveranstaltungen und Fachmessen, aus Lehr- und Forschungsstätten sowie aus Verwaltung und Wirtschaft, Personalien und Buchbesprechungen über aktuelle Neuerscheinungen aus dem gesamten Fachgebiet