Dieser Text wurde mit dem automatisierten Übersetzungssystem von Salesforce übersetzt. Nehmen Sie an unserer Umfrage teil, um Feedback zu diesem Inhalt zu geben und uns mitzuteilen, was Sie als Nächstes sehen möchten.

Zuverlässig – Skalierbarkeit

Weitere Informationen zu Well-Architected TrustedReliableScalabilityData Modeling (Datenmodellierung)

Wohin schauen?
Produktbereich | Standort
Wie sieht gut aus?
Muster
Data 360 | Organisation✅ Datentransformationen werden verwendet, um Daten zu denormalisieren, bevor die Zuordnung von Datentransformationen vorhanden ist, um Quelldaten umzuwandeln, sodass alle Kontaktpunkte separat in Standard-Kontaktpunktobjekte aufgenommen werden können
Plattform | Unternehmen✅ Low-Code-Generatoren verstehen die verschiedenen von Salesforce unterstützten Feldtypen und werten die Berichterstellungs- und Verschlüsselungsanforderungen aus, bevor sie Felddatentypen auswählen
Plattform | Unternehmen✅ Die Auswirkungen von Freigaben und Datenverzerrungen werden ausgewertet, bevor eine Master-Detail-Beziehung zwischen Objekten hergestellt wird
Plattform | Datenmodell✅ Tabellen wurden für die Skalierung denormalisiert
Plattform | Datenmodell✅ Standardobjekte werden nach Möglichkeit verwendet
Plattform | Designstandards✅ Standards und Anleitungen, für die ein benutzerdefiniertes Objekt vorhanden sein muss

Weitere Informationen zu Well-Architected TrustedReliableScalabilityData Volume (Datenvolumen)

Wohin schauen?
Produktbereich | Standort
Wie sieht gut aus?
Muster
Data 360 | Testpläne✅ Berechnungen zum Massenladen berücksichtigen Datenladungen von Tag 0 Sie haben für die großen Datenvolumen geplant, die oft vor der Inbetriebnahme Ihrer Lösung migriert werden müssen (auch als Tag 0), und haben bestätigt, dass Sie sich nicht der maximalen Dateigröße und den maximalen Dateien pro geplanter Ausführung gleichzeitig nähern werden.
Platform | Apex✅ Logik vorhanden, um die Anzahl der untergeordneten Datensätze auf mehrere übergeordnete Datensätze in Szenarien zu verteilen, in denen eine Datenverzerrung problematisch ist
Platform | Apex✅ Logik vorhanden, um alle Datensätze beim Importieren oder Abgleichen über eine Integration den entsprechenden menschlichen Benutzern zuzuweisen
Plattform | Unternehmen✅ Sie haben eine Datenarchivierungs- und -bereinigungsstrategie dokumentiert und implementiert
Plattform | Unternehmen✅ Die Bulk-Datenladestrategie wurde optimiert, um den Serververbrauch zu optimieren Ladezeiten, Datensequenzen, Datensatzsperren, Automatisierung und Massenfreigabeprozesse werden in Ihrer Bulk-Ladestrategie berücksichtigt, um den Serververbrauch zu optimieren
Plattform | Daten✅ Keine übergeordneten Datensätze weisen mehr als 10.000 untergeordnete Datensätze auf
Plattform | Daten✅ Keine Benutzer werden mehr als 10.000 Datensätzen desselben Objekttyps zugewiesen
Plattform | Daten✅ Es gibt keine Instanzen, in denen mehr als 10.000 Datensätze Nachschlagefelder aufweisen, die auf denselben Datensatz verweisen
Plattform | Daten✅ Massenladevorgänge von Daten in die Produktion erfolgen nicht während der Hauptgeschäftszeiten
Plattform | Daten✅ Massendatenladungen werden nach ParentId in Batches sortiert
Plattform | Daten✅ Massendatenladungen enthalten nur die Mindestdaten, die für Geschäftsentscheidungen erforderlich sind
Plattform | Flow✅ Logik vorhanden, um die Anzahl der untergeordneten Datensätze auf mehrere übergeordnete Datensätze in Szenarien zu verteilen, in denen eine Datenverzerrung problematisch ist
Plattform | Flow✅ Logik vorhanden, um alle Datensätze beim Importieren oder Abgleichen über eine Integration den entsprechenden menschlichen Benutzern zuzuweisen
Plattform | Organisation✅ Die Datennachverarbeitung wird bei großen Datenladungen zurückgestellt. Nachbearbeitungsautomatisierungen werden verschoben, bis große Datenladungen beendet sind.
Plattform | Testpläne✅ Die Bulk-API-Ladestrategie wird in einer Vollkopie-Sandbox getestet, wenn Sie planen, dass Daten mithilfe der Bulk-API in einer Vollkopie-Sandbox geladen werden, um das Muster, die Ladereihenfolge und eventuell auftretende Sperrprobleme zu identifizieren.

Weitere Informationen zu Well-Architected TrustedReliableScalabilityData Modeling (Datenmodellierung)

Wohin schauen?
Produktbereich | Standort
Was vermeiden?
Anti-Pattern
Plattform | Unternehmen⚠️ Low-Code-Generatoren wählen Datentypen aus, ohne die Anforderungen an nachgelagerte Berichte und Verschlüsselung auszuwerten
Plattform | Unternehmen⚠️ Freigabe und Datenverzerrung werden vor dem Herstellen von Master-Detail-Beziehungen zwischen Objekten nicht berücksichtigt
Plattform | Datenmodell⚠️ Tabellen wurden normalisiert, um Redundanz zu vermeiden
Plattform | Datenmodell⚠️ Sie haben Standardobjekte repliziert
Plattform | Designstandards⚠️ Es gibt keine Standards zum Erstellen von benutzerdefinierten Objekten

Weitere Informationen zu Well-Architected TrustedReliableScalabilityData Volume (Datenvolumen)

Wohin schauen?
Produktbereich | Standort
Was vermeiden?
Anti-Pattern
Data 360 | Testpläne⚠️ Ihre Massenladeberechnungen enthalten keine Berechnungen für Tag 0-Datenladevorgänge Tag 0-Lastberechnungen werden nicht ausgeführt oder liegen, sofern dokumentiert, in der Nähe des Maximalwerts für Dateigröße und Dateien pro Ausführung gleichzeitig
Platform | Apex⚠️ Über Datenladevorgänge oder Integrationen erstellte Datensätze werden einem allgemeinen "Integrationsbenutzer" zugewiesen.
Platform | Apex⚠️ Untergeordnete Datensätze werden willkürlich übergeordneten Datensätzen zugewiesen, unabhängig von der Anzahl der vorhandenen untergeordneten Datensätze, die bereits zugewiesen wurden
Plattform | Unternehmen⚠️ Sie verfügen nicht über eine Strategie zur Datenarchivierung und -bereinigung oder Ihre Strategie wurde dokumentiert, aber nicht implementiert
Plattform | Unternehmen⚠️ Massendatenladungen werden ohne Planung für die Skalierung ausgeführt Ladezeiten, Datensequenzen, Datensatzsperren, Automatisierung und Massenfreigabeprozesse werden nicht berücksichtigt, bevor Massendaten geladen werden
Plattform | Daten⚠️ Massendaten werden während der Hauptgeschäftszeiten in die Produktion geladen
Plattform | Daten⚠️ Das Laden von Massendaten ist nicht auf die für Geschäftsentscheidungen erforderlichen Mindestdaten beschränkt
Plattform | Daten⚠️ Es sind Datensätze mit mehr als 10.000 untergeordneten Datensätzen vorhanden
Plattform | Daten⚠️ Benutzer werden mehr als 10.000 Datensätzen desselben Typs zugewiesen
Plattform | Daten⚠️ Instanzen sind vorhanden, in denen mehr als 10.000 Datensätze Nachschlagefelder aufweisen, die auf denselben Datensatz verweisen
Plattform | Daten⚠️ Massendatenladungen werden nicht nach ParentId in Batches sortiert
Plattform | Flow⚠️ Über Datenladevorgänge oder Integrationen erstellte Datensätze werden einem allgemeinen "Integrationsbenutzer" zugewiesen.
Plattform | Flow⚠️ Untergeordnete Datensätze werden willkürlich übergeordneten Datensätzen zugewiesen, unabhängig von der Anzahl der vorhandenen untergeordneten Datensätze, die bereits zugewiesen wurden
Plattform | Organisation⚠️ Die Bulk-API-Ladestrategie wird in einer Teilkopie-Sandbox getestet. Bulk-API-Ladetests, um zu bestimmen, dass Batch-Ladezeiten für eine Teilmenge der Daten in einer Teilkopie-Sandbox durchgeführt werden.
Plattform | Organisation⚠️ Ausführen von Massendatenladungen parallel zu anderen Vorgängen, die Datensätze sperren Ausführen von parallelem Batch-Apex zusammen mit Datenladungen
Plattform | Organisation⚠️ Die Auswahl einer API ohne Berücksichtigung der Größe Ihrer SOAP-API für Datensets wird für Datenladungen von mehr als 500.000 Datensätzen verwendet
Plattform | Organisation⚠️ Berichterstellungsanforderungen steuern das Rollenhierarchiedesign Verwenden von Berichterstellungsanforderungen, um zu bestimmen, welche oder wie viele Rollenhierarchieebenen Sie benötigen
Plattform | Organisation⚠️ Rollenhierarchie weist leere Rollen auf Leere Platzhalterrollen werden für die Zukunft erstellt
Plattform | Organisation⚠️ Die Rollenhierarchie ahmt Ihr Organigramm nach Sie haben Ihre Organisationsstruktur in der Rollenhierarchie repliziert und individuelle Rollen für jeden Titel in Ihrem Unternehmen erstellt.