29.02.2012
22:03

Sharepoint 2010 Best Practices

Sharepoint gehört immer noch zu meinen Aufgabengebieten. Gute Anleitungen zu finden ist auch nicht einfach, gerade im Bezug was man tun oder lassen sollte.

Das Produktteam hat eine Übersicht mit Best Practices unter dem Link bereitgestellt.

Mal sehen, ob es brauchbar ist...

Weitere Informationen zum Thema:

Sharepoint - Der Unterschied der Versionsbezeichnung zwischen Frontend und Datenhaltung

Bei einem grösseren Migrationsprojekt hatte ich eine interessante Aufgabenstellung im Bezug auf die Versionsbezeichnung von Dokumenten. Im Frontend und im Export-XML (Manifest.xml) werden diese in für Benutzer lesbarer Form als 0.1, 0.2 bzw. 1.0 angezeigt. Intern ist die Version dagegen als 1, 2 bzw. 512 abgelegt.

In einem ersten Schritt habe ich eine Metadatenschicht aufgebaut. Die Gründe hierfür sind:

  • Übersicht des zu erwarteten Aufwands bzw. Fortschritts
  • Intensive Tests
  • KPI's und Auswertungen für das Management
  • Analyse der Datenqualität

Die aufbereiteten Metadaten enthalten die sogenannte interne Version der Datenhaltung. Die Versionsbezeichnung der Sharepoint Content Deployment API enthält hingegen die Bezeichnung, wie sie der Benutzer sieht.

Tabellarisch gesehen sieht die Gegenüberstellung so aus:

FrontendversionInterne Version
0.11
0.22
1.0512
1.1513
2.01024

Der Aufbau dieser Versionen folgt einer Regel:

  • Hauptversionen steigen in 512-Schritten
  • Nebenversion fortlaufend

Mit dieser Information war ich in der Lage, das Ganze in einer Hilfsklasse zu packen, die in der Lage ist, die Konvertierung in die interne bzw. Frontendversion vorzunehmen.

Codebeispiel Konverter:


    public class SharepointVersionConverter
    {
        const int MainVersionIdentifier = 512;

        public static string GetSharepointVersionStringFromInternalVersion(int version)
        {
            return String.Format("{0}.{1}", version / MainVersionIdentifier, version % MainVersionIdentifier);
        }

        public static int GetSharepointInternalVersionFromString(string version)
        {
            if (String.IsNullOrEmpty(version))
                throw new ArgumentException("version is null or empty.", "version");

            var split = version.Split('.');

            if (split.Length != 2)
                throw new ArgumentException("Wrong version string");

            return Int32.Parse(split[0]) * MainVersionIdentifier + Int32.Parse(split[1]);
        }
    }

So habe ich jetzt die Möglichkeit, die interne Version aus den Metadaten mit der Frontendversion zu vergleichen, um so die Metadatenschicht aktualisieren zu können.

Weitere Informationen zum Thema:

CLR Funktion für den SQL Server erstellen

Lange habe ich auf die Gelegenheit und einen Anwendungsfall gewartet, um eine CLR Funktion für den SQL Server schreiben zu können. Für ein Migrationsprojekt habe ich nun einen Einsatzzweck gefunden. ;-)

Hauptgrund dafür ist, dass eine Anwendung abgelöst werden soll, die ihre Business Logik in C# implementiert hat. Der Code ist nach den gängigen Clean Code Regeln erstellt, das ist sofort ersichtlich, die Datenhaltung ist dafür sehr kreativ.

Da der imperative Code die Logik aus den Daten zusammenstellt, habe ich mich für den Ansatz entschieden, eine CLR Funktion für den SQL Server zu schreiben. Würde ich diese Logik in T-SQL abbilden, wäre die Performanz und Verständlichkeit grausam. Da eine grosse Datenmenge migriert werden muss, ist ein Ansatz notwendig, der einerseits performant läuft, anderseits wenig Aufwand verursacht.

So habe ich nun die Möglichkeit eine SQL Server Eigenschaft zu nutzen, die seit der Version 2005 existiert.

Gehen wir nun der Reihe nach vor. Zuerst wird ein Projekt vom Typ Klassenbibliothek angelegt. Anschliessend lege ich einen Schlüssel an, damit die Assembly auch signiert werden kann. Die Implementierung ist recht einfach. Es werden die Referenzen:

  • System.Data.Sql
  • System.Data.SqlTypes
  • Microsoft.SqlServer.Server

benötigt. Das Grundgerüst der Klasse hat folgenden Aufbau:


using System;
using System.Collections;
using System.Collections.Generic;
using System.Data.Sql;
using System.Data.SqlTypes;
using System.Linq;
using System.Text;
using Microsoft.SqlServer.Server;

namespace Firma.Projekt.TVFStringConvert
{
    public class StringConvertTable
    {
        [SqlFunction(FillRowMethodName = "FillRow")]
        public static IEnumerable Inititalize(string tags)
        {
            return ParseString(tags);
        }

        public static void FillRow(Object obj, out SqlInt32 keyId, out SqlInt32 valueId)
        {
            if (obj == null)
                SqlContext.Pipe.Send("The obj to create a tupel is null.");

            Tag tag = obj as Tag;
            keyId = tag.ParentId;
            valueId = tag.Id;
        }       

        public static ICollection<Tag> ParseString(string tagString)
        {
            if (tagString != null)
            {
                return ExternalLib.Convert(tagString);
            }

            return new List<Tag>(0);
        }       
    }
}

Einstiegspunkt ist in meinem Beispiel die Methode Initialize. Diese wird mit dem Attribute SqlFunction versehen. Mit diesem wird festgelegt, dass die Methode FillRow ein Tupel für die Verwendung in T-SQL aufbereitet. Der erste Parameter enthält die Informationen dafür. Die eigentliche Logik beziehe ich dabei aus einer anderen Bibliothek und ist nicht Bestandteil des Codebeispiels.

Nachdem diese CLR Funktion erstellt ist, muss diese auf dem SQL-Server registriert werden. Dies erfolgt in mehreren Schritten. Zuerst wird die Assembly registriert und anschliessend eine Funktion erstellt, welche auf die Logik in der Assembly zeigt. Nachfolgendes Beispiel zeigt den Ablauf:


USE TestDatabase
GO

-- Für Permission Set External_Access und Unsafe
-- Bad Practice, besser die DLL mit einem richtigen Zertifikat signieren 
-- ALTER DATABASE TestDatabase SET TRUSTWORTHY ON

IF EXISTS (SELECT name FROM sysobjects WHERE name = 'StringConvertTable')
   DROP FUNCTION StringConvertTable
GO

IF EXISTS (SELECT name FROM sys.assemblies WHERE name = 'TVFStringConvert')
   DROP ASSEMBLY [TVFStringConvert]
GO

CREATE ASSEMBLY [TVFStringConvert] 
FROM 'C:\projects\ Firma.Projekt.TVFStringConvert\Firma.Projekt.TVFStringConvert.dll'
WITH PERMISSION_SET = UNSAFE --SAFE 
GO

CREATE FUNCTION StringConvertTable(@tags nvarchar(max)) 
RETURNS TABLE (
   keyId int,
   valueId int
)
AS EXTERNAL NAME TVFStringConvert.[Firma.Projekt.TVFStringConvert.StringConvertTable].[Inititalize]
GO

-- Test (Weiterverwendung mit CROSS APPLY)
SELECT * FROM StringConvertTable('kreative Datenlogik')
GO

Falls die Fehlermeldung

Execution of user code in the .NET Framework is disabled. Enable "clr enabled" configuration option.

erscheint, muss diese Option aktiviert werden.

Mit folgendem Befehl ist dies möglich:


-- Servereinstellungen
EXEC sp_configure 'clr enabled', 1
GO
RECONFIGURE
GO

Ich habe nun einen praktikablen und pragmatischen Weg, der auf die Situation abgestimmt mit akzeptabler Performanz die Daten (kreative Datenlogik) in auswertbarer Form für die Migration bereitstellt.

Mein nächster Schritt besteht darin das Ganze mit parallelisierter Ausführung weiter zu beschleunigen.

Weitere Informationen zum Thema:

15.02.2012
20:38

Wieder gefunden

Wenn Du ein Schiff bauen willst, dann trommle nicht Männer zusammen um Holz zu beschaffen, Aufgaben zu vergeben und die Arbeit einzuteilen, sondern lehre die Männer die Sehnsucht nach dem weiten, endlosen Meer.

Antoine de Saint-Exupery

Entity Framework 4.3 - Schema Migrations für Code First (DbContext)

Eine Anwendung lebt bekanntlich von Änderungen. Nicht selten haben diese Änderungen auch Auswirkungen auf das Datenbankmodell. Das Entity Framework unterstützt mittlerweile DB First, Model First und Code First. Für DB First und Model First ist es kein grösseres Problem Änderungen auf der Datenbank nachzuführen, mit ein paar Tricks und Tools sind sogar Roundtrips zwischen Datenbank und Modell möglich.

Die möglichen Vorgehensweisen sind in der Präsentation Tipps und Tricks Entity Framework ersichtlich.

Bei Code First war dieser Ansatz bisher ein Ding der Unmöglichkeit. Lediglich mit Zusatztools wie SQL Delta und einer ITIL-konformen Umgebung konnten die Änderungen vorgenommen werden, ohne dass die produktiven Daten negativ beeinflusst wurden. Der Störfaktor war jedoch immer der Modelhash in der Tabelle EdmMetadata. Entweder hat man diesen Eintrag mit aktualisiert oder aber die Konvention entfernt.

Seit ein paar Tagen ist nun die Beta 1 vom Entity Framework 4.3 draussen und ich wollte natürlich auch gleich die Anpassungen ausprobieren. Die Pakete gibt es über NuGet und die Unterstützung für die Installation von Vorabversionen benötigt im minium die Version 1.6. Ich musste zuvor auf diese Version aktualisieren. Die ältere Version Entity Framework.Migrations muss noch vom System entfernt werden (erfordert einen Neustart von Visual Studio).

Nach diesem Update besteht die Möglichkeit die Vorabversion mit dem Befehl:

Abbildung 1 Install-Package Entity Framework -IncludePreRelease
Abbildung 1

auf dem System zu installieren.

Also beginne ich mit einem kleinen Beispiel:


    public abstract class Product
    {
      public int Id { get; set; }
 
      [StringLength(50)]
      [Required]
      public string Name { get; set; }
 
      [StringLength(400)]
      public string Description { get; set; }
    }
 
    public class Book : Product
    {
      [StringLength(10)]
      [Required]
      public string ISBN10 { get; set; }
 
      [StringLength(13)]
      [Required]
      public string ISBN13 { get; set; }
 
      public int LanguageCD { get; set; }
 
      [Required]
      public int Pages { get; set; }
    }
 
    public class EBook : Book
    {
      [Required]
      public string Filename { get; set; }
    }
 
    public class Hardcover : Book
    {
      [StringLength(20)]
      [Required]
      public string Size { get; set; }
 
      [Required]
      public double Weight { get; set; }
    }
 
    public class BookInheritanceContext : DbContext
    {
 
      public BookInheritanceContext()
        : base("EfCodeFirstMigrations")
      { 
 
      }
 
      public IDbSet<Product> Products { get; set; }
 
      protected override void OnModelCreating(DbModelBuilder modelBuilder)
      {
        //  TPH ist Standardkonvention, da beste Performance.
        //  Für  Individual-Lösungen  macht das auch durchaus Sinn , wenn
        //  jedoch die Release-Tauglichkeit  gewährleistet werden muss
        //  ist TPT die bessere Wahl.
 
        //  Mapping  für benutzerdefinierten Diskriminator 
        // // const  string   discriminator  = "ProductTypeNbr ";
        // // modelBuilder . Entity <Product >( )
        ////  .Map<Book>(m => m.Requires(discriminator).HasValue(2))
        ////  .Map<EBook>(m => m.Requires(discriminator).HasValue(3))
        ////  .Map<Hardcover>(m => m.Requires(discriminator).HasValue(4))
        ////  .ToTable("Product");
 
        base.OnModelCreating(modelBuilder);
      }
    }

Nun beginnt die Phase der Erweiterung. In diesem Zusammenhang ist es wichtig zu akzeptieren, dass die Arbeit mit NuGet ein wenig intensiver wird. Im neuen Release sollen nun ein paar Erweiterungen vorgenommen werden, die Auswirkungen auf das Datenmodell haben werden.

Der erste Schritt ist nun das öffnen der NuGet-Konsole und die Eingabe von:

Abbildung 2 Enable-Migrations
Abbildung 2

auszuführen. Nach dieser Aktion befindet sich ein neuer Ordner Migrations im Projekt.

Abbildung 3 Neuer Ordner Migrations
Abbildung 3

Ich beginne nun mit meinen Anpassungen an der Klasse EBook. In der neuen Version soll die Möglichkeit bestehen, dass pro Buch mehrere Dateien für alternative Dateiformate (mobi, epub, pdf usw.) hinterlegt werden können.


public class EBook : Book
    {
      [Required]
      public string Filename { get; set; }
 
      [Required]
      public ICollection<BookFile> AlternativeFiles { get; internal set; }
    }
 
    public class BookFile
    {
      public int Id { get; set; }
      public int Type { get; set; }
      public int Filename { get; set; }
    }

Nach der Fertigstellung geht es nun darum das Update der Datenbank vorzunehmen. Auch hier ist die primäre Schaltzentrale die NuGet-Konsole. Zuerst muss jedoch eine kleine Anpassung in der Configuration-Klasse vorgenommen werden. Im Konstruktur muss der Wert von AutomaticMigrationsEnabled auf true gesetzt werden.

Kommen wir zurück auf die NuGet-Konsole, mit dem Befehl:

Abbildung 4 Update-Database -Script
Abbildung 4

wird ein SQL-Skript mit den notwendigen Änderungen auf der Datenbank erstellt.

Der Output für dieses Beispiel:


CREATE TABLE [BookFiles] (
    [Id] [int] NOT NULL IDENTITY,
    [Type] [int] NOT NULL,
    [Filename] [int] NOT NULL,
    [EBook_Id] [int],
    CONSTRAINT [PK_BookFiles] PRIMARY KEY ([Id])
)
CREATE INDEX [IX_EBook_Id] ON [BookFiles]([EBook_Id])
ALTER TABLE [BookFiles] ADD CONSTRAINT [FK_BookFiles_Products_EBook_Id] FOREIGN KEY ([EBook_Id]) REFERENCES [Products] ([Id])
CREATE TABLE [__MigrationHistory] (
    [MigrationId] [nvarchar](255) NOT NULL,
    [CreatedOn] [datetime] NOT NULL,
    [Model] [varbinary](max) NOT NULL,
    [ProductVersion] [nvarchar](32) NOT NULL,
    CONSTRAINT [PK___MigrationHistory] PRIMARY KEY ([MigrationId])
)
BEGIN TRY
    EXEC sp_MS_marksystemobject '__MigrationHistory'
END TRY
BEGIN CATCH
END CATCH
INSERT INTO [__MigrationHistory] ([MigrationId], [CreatedOn], [Model], [ProductVersion]) VALUES ('201201151955537_AutomaticMigration', '2012-01-15T19:55:54.189Z', 0x1F8B...EDMX-Modell...0, '4.3.0-beta1')

Neben den Tabellen wird neu auch für die Fremdschlüssel-Spalten ein Fremdschlüsselindex erstellt. Bisher war das ein negativer Unterschied zum Model First - Ansatz, der mit der Version EF 4.3 der Vergangenheit angehören wird.

Was auch auffällt ist die Systemtabelle __MigrationHistory, in der das aktuelle Abbild des Modells gespeichert wird. Die Tabelle EdmMetadata existiert nicht mehr. Mit EF 4.3 gehört diese ebenfalls der Vergangenheit an. Bei bestehenden Modellen wird diese jedoch erst entfernt, wenn die Datenbank neu erstellt wird. Ein Detail, welches sich daraus ergibt: Migrations funktionieren nur mit dem SQL-Server!!!!

Ohne den Swich "-Script" lassen sich die Änderungen direkt an die Datenbank übertragen. Bei dem automatischen Ansatz würde ich persönlich darauf verzichten, da es keine Möglichkeit der Versionierung gibt. Dieser Teil lässt sich mit dem Speichern der SQL-Skripts jedoch organisatorisch in den Griff bekommen. Beim codebasierten Ansatz ist es ein wenig eleganter gelöst, jedoch sind die Möglichkeiten auch hier begrenzt.

Bei dieser Beta soll es sich um die Letzte handeln, sodass im Laufe des ersten Quartals die finale Version Entity Framework 4.3 zur Verfügung stehen wird.

Ich finde diesen Ansatz sehr interessant, da nun auch beim codezentrierten Ansatz mit dem Entity Framework Schema-Migrations möglich werden. Als Entwickler muss man jedoch berücksichtigen, dass diese nur mit dem SQL-Server funktionieren. Zudem ist ein Round-Trip nicht, bzw. nur mit einem nicht im Verhältnis stehenden Aufwand möglich. (Stichwort: Meet in the Middle). Hier beginnt das Problem aber häufig mit der Planung.

Weitere nützliche Informationen befinden sich in den Blogs vom ADO.NET - Team unter:

Translate this page

Kategorien