Erstellung eines Datenmigrationskonzeptes von Salesforce Classic zu Salesforce Lightning Posted on 25. Juni 202419. Juli 2024AuthorAuthor Victoria Oppermann OrderSplit In einer zunehmend digitalisierten Welt ist das Management von Kundenbeziehungen entscheidend für den Unternehmenserfolg, besonders im E-Commerce. CRM-Systeme wie Salesforce ermöglichen es, Kundenbeziehungen zu pflegen, zu analysieren und strategisch zu nutzen. Salesforce hat sich durch kontinuierliche Weiterentwicklung als führende CRM-Plattform etabliert. Mit der Einführung von Salesforce Lightning, das Salesforce Classic ersetzt, können Unternehmen ihre Geschäftsprozesse effizienter gestalten und ihre Produktivität steigern. Diese Arbeit konzentriert sich auf die Migration eines Teils der Daten von Salesforce Classic zu Salesforce Lightning, am Beispiel eines Saatgut-Onlineshops. Die Migration von Salesforce B2B-Commerce zu Salesforce B2B-Lightning ist komplex und erfordert sorgfältige Planung und Umsetzung. Ziel ist die Erstellung eines Datenmigrationskonzepts, das speziell auf die Bedürfnisse des Saatgut-Shops zugeschnitten ist. Ein Vorteil ist der Zugriff auf alte Kundendaten im neuen System, wodurch neue CRM-Funktionen genutzt und wichtige Daten bewahrt werden. Entwickler können diese Arbeit als Grundlage für ähnliche Projekte nutzen. Die Migration verbessert die Anpassung an spezifische Geschäftsbedürfnisse, steigert die Prozesseffizienz und schafft eine bessere Plattform für zukünftiges Wachstum. Der Onlineshop kann dynamisch auf Marktänderungen und neue Geschäftsanforderungen reagieren, was einen wesentlichen strategischen Vorteil darstellt. Kostenloser Download der gesamten Projektarbeit Categories IT
Einsatz von Tracing-Tools beim Monitoring von Webapplikationen Posted on 30. Mai 202425. Juni 2024AuthorAuthor Victoria Oppermann Komponenten einer Tracing-Pipeline Seit 2006 entwickelt und realisiert dotSource skalierbare Digitalprodukte für Marketing, Vertrieb und Services. Sie verbinden Strategieberatung und Technologieauswahl, einschließlich Branding, Konzeption, UX-Design, Conversion-Optimierung und Cloud-Betrieb. Zwei spezialisierte Teams betreiben die IT-Infrastruktur: das IT Internal Services Team für interne Software, Hardware und Dienste, und das Cloud Services Team, das Kunden unterstützt, IT-Architekturen berät, Sicherheitstests durchführt, Cloud-Migrationen leitet, Cloud Service Management und Business Monitoring durchführt. Ein aktuelles Projekt erfordert die Sammlung von Telemetriedaten, um diese an ein Observability Backend zu senden, das die Daten abfragt und visualisiert. Dies ist wichtig, um Fehler in API Endpoints zu identifizieren und die Leistung von Webservern zu überwachen, besonders in Microservice-Architekturen. Das Ziel ist es, fundiertes Wissen über Tracing zu erlangen, die Merkmale von Tracing zu identifizieren und die Anforderungen an ein Tracing-Tool zu formulieren. Diese Anforderungen sollen durch eine Nutzwertanalyse mehrerer Tools evaluiert werden, um das beste Tool auszuwählen und praktisch zu erproben. Abschließend sollen die Integrationserfahrungen dokumentiert und notwendige Maßnahmen zur Integration von Tracing in bestehende IT-Landschaften und Softwarearchitekturen ermittelt werden. Der Vergleich mit dem Tracking von Zugvögeln illustriert die Methode des Verfolgens von Objekten in einem verteilten System. Kostenloser Download der gesamten Projektarbeit Categories IT
Evaluation und Einführung einer ISMS-Softwarelösung am Beispiel der dotSource GmbH Posted on 19. April 20247. Mai 2024AuthorAuthor Victoria Oppermann Bestandteile eines ISMS Die Arbeit beschäftigt sich mit der zunehmenden Bedeutung der Informationssicherheit in Unternehmen und der Notwendigkeit eines Informationssicherheitsmanagementsystems (ISMS), um diese zu gewährleisten und nachzuweisen. Sie untersucht, ob bestehende Standards und Richtlinien wie ISO/IEC 27001 und VdS 10000 Verbesserungspotenzial bieten. Das Ziel besteht darin, ein überarbeitetes ISMS konzeptionell zu entwickeln und kritisch zu bewerten. Dabei werden die etablierten Normen als Ausgangspunkt genutzt und durch Verbesserungsvorschläge erweitert. Die praktische Umsetzung des überarbeiteten ISMS erfolgt mithilfe verschiedener Softwarelösungen, wobei ein ausgewählter Ansatz für die Praxisrealisierung verwendet wird. Die Arbeit liefert eine kritische Analyse der etablierten Normen, das überarbeitete ISMS, eine Praxisumsetzung mittels Atlassian Jira und Confluence sowie einen reflektierten Umsetzungsbericht. Die Ausgangssituation zeigt, dass trotz vorhandener Standards unterschiedliche Umsetzungen von ISMS existieren, was die Frage nach der Praxistauglichkeit der Standards aufwirft. Diese Frage wird anhand eines Fallbeispiels, der Digital-Agentur dotSource GmbH, untersucht. Die Firma benötigt ein ISMS, um die Anforderungen ihrer Kunden zu erfüllen und neue Geschäftsmöglichkeiten zu erschließen. Das überarbeitete ISMS basiert auf ISO/IEC 27001, BSI Standard 200-1 und VdS 10000 und wird durch Verbesserungsvorschläge ergänzt. Die Auswahl und Umsetzung einer geeigneten Software für das ISMS sowie die Evaluierung verschiedener Lösungsansätze sind Teil des Projekts. Die Arbeit gliedert sich in Einleitung, theoretische Grundlagen, Konzeption, Umsetzung und Fazit und liefert einen kritischen Blick auf etablierte Standards und Verbesserungsvorschläge für das ISMS. Kostenloser Download der gesamten Masterarbeit Categories IT
Evaluation und Umsetzung von Performance-Tests mit Hilfe von CodeceptJS Posted on 28. Februar 202318. Juli 2024AuthorAuthor Victoria Oppermann Das Internet entwickelt sich seit seiner Erfindung unaufhaltsam fort. Jährlich nimmt die Anzahl von Internetanschlüssen und Nutzern weltweit stark zu. Aufgrund der rasant steigenden Verfügbarkeit von schnellen Breitbandverbindungen tolerieren immer weniger Internetnutzer langsam arbeitende Webseiten. Dazu zeigen Studien, dass Absprungraten von Webseitennutzern mit der Dauer von Ladezeiten ansteigen. Dies kann einen potenziellen Umsatzverlust für den Seitenbetreiber bedeuten. Ladezeiten können durch unterschiedliche Faktoren beeinflusst werden. Ein relevanter Faktor bei Onlineshops kann dabei die Anzahl der zeitgleich eintretenden Kunden sein. Zu viele Nutzer können zu einer Überlast des Webservers und somit zu höheren Antwortzeiten führen. Um solche Probleme frühzeitig zu erkennen, werden Lasttests an Servern durchgeführt, um die Auswirkungen von hohen Nutzerzahlen auf Seitenladezeiten zu messen. Diese Arbeit beschäftigt sich daher mit der Konzeption, Entwicklung und Durchführung von Lasttests unter der Verwendung des Frontend-Testing Frameworks CodeceptJS. Jedoch war es bislang unbekannt, ob und inwiefern sich Lasttests mit Hilfe dieses Tools umsetzen lassen. Um dieses Ziel zu erreichen, wurde ein Testkonzept aufgestellt, welches alle benötigten Testabläufe definiert. Anschließend wurden Testskripte erstellt, welche anhand eines Benutzermodells Webseitenbesucher simulieren und deren Auswirkungen auf einem Testserver messen. Dieser Versuch konnte aufzeigen, dass es durchaus möglich ist, Lasttests mit CodeceptJS aufzusetzen. Jedoch benötigt es einen hohen Aufwand, alle Funktionalitäten von XLT nachzubilden. Auslastung des Testsystems bei unterschiedlicher Anzahl von virtuellen Nutzern Kostenloser Download der gesamten Bachelorarbeit Categories IT
Optimierung und Evaluierung einer Erweiterung zur Integration von ClickThrough-Daten im Apache SOLR Scoring-Algorithmus Posted on 31. Januar 202318. Juli 2024AuthorAuthor Victoria Oppermann Der Umsatz im Online-Handel steigt, weshalb es für Unternehmen notwendig ist, ihre Geschäftsprozesse auf digitale Strategien auszuweiten. Viele Firmen befassen sich mit der Bedeutung des E-Commerce und setzen auf Webshops. Im Vergleich zum stationären Handel bringen diese Vorteile wie Einsparungen von Personalkosten sowie eine höhere Reichweite und Verfügbarkeit für den Kunden. Bei der Umsetzung dieser Online-Präsenzen sind verschiedene Komponenten zu beachten. Dazu gehören ein Warenkorb, Produktdetailseiten oder die Produktsuche. Letztere hat mit einer Beteiligung an 80 Prozent der Online-Käufe einen entscheidenden Einfluss auf den Erfolg der Webshops. Sie dient der gezielten Navigation des Kunden zu einem Ergebnis. Das Ziel ist es, möglichst passende Elemente zu einer Suchanfrage zu liefern. Um die Qualität der Suchergebnisse zu verbessern, gibt es verschiedene Möglichkeiten. Dazu gehört u. a. das Click-Through-Scoring. Das Click-Through-Ranking bezeichnet die Fähigkeit eines Suchalgorithmus, in der Vergangenheit häufig geklickte Treffer präsenter anzuzeigen. Das wird zum Beispiel mittels Anzeigen des Produktes auf einer vorderen Position im Suchergebnis erreicht. Unternehmen haben die Möglichkeit, Drittanbietersoftware für ihre Produktsuche zu verwenden. Vor allem bei Lösungen, die frei zur Verfügung stehen, ist es aber möglich, dass diese kein Click-Through-Scoring beinhalten. Ein Beispiel dafür ist die Suchmaschine SOLR, die von der E-Commerce Plattform SAP Commerce verwendet wird. Es ist möglich, die bestehende Implementierung um diese Funktionalität zu erweitern. Ziel dieser Arbeit ist deshalb die Umsetzung einer Software zur Erweiterung des SOLR um einen Click-Through-Scoring Algorithmus. Dies erfolgt auf Basis eines bestehenden Prototyps. Weiterhin soll diese Software auf die Einhaltung funktionaler und nichtfunktionaler Anforderungen geprüft werden, um einen erfolgreichen Einsatz in einem Produktivsystem zu gewährleisten. Beteiligte Komponenten beim Click-Through-Scoring Kostenloser Download der gesamten Bachelorarbeit Categories IT
Deployment und Continuous Integration mit Containerisierung in der Cloud Posted on 21. Juli 202018. Juli 2024AuthorAuthor Victoria Oppermann In den letzten Jahren konnten mehrere größere Umbrüche in der digitalen Industrie festgestellt werden. Der erste Umbruch brachte eine neue Art des Deployments und die damit verbundene Infrastruktur mit sich, nämlich die Cloud. Cloud Computing ist seit Jahren ein diskutiertes Thema, da es immer wieder als die Zukunft der Informationstechnik (IT) bezeichnet wird. Außerdem sorgt es bei vielen Unternehmen für geringere Kosten, da selbst verwaltete Infrastruktur als auch das zu verwaltende Personal wegfallen. Auf Cloud-Ebene wurde vor allem von der Technologie der Virtualisierung gebraucht gemacht. Damit wurde reale Hardware abstrahiert und den verschiedenen Nutzern angeboten. Es stellte sich jedoch schnell heraus, dass Virtualisierung mit virtuellen Maschinen ineffizient ist. Dies ist der Grund für den zweiten Umbruch, mit dem sogenannte Container in die Cloud und die Server Einzug hielten. Diese ermöglichten einen schnellen und zuverlässigen Betrieb ohne ein seperates Betriebssystem, da sie auf dem Host-System ausgeführt werden und dieses zusammen mit seinen Ressourcen nutzen. Nun stellte sich die Frage, wie diese Container am besten orchestriert werden können. Obwohl es einige Lösungen für dieses Problem gab, setzte sich zuerst Kubernetes als Open-Source-Projekt zur Container-Orchestrierung durch und stellt momentan einen Industriestandard dar. Übersicht über Kubernetes Architektur Kostenloser Download der gesamten Projektarbeit Categories IT
Integration einer dynamischen Formularkomponente in das Content Management System Smart-Edit Posted on 18. November 201918. Juli 2024AuthorAuthor Christian Otto Grötsch Die dotSource GmbH ist eine Digitalagentur und besitzt einen Bereich für E-Commerce. Eine große Mehrzahl der Projekte integriert Online-Formulare für verschiedene Anwendungszwecke, beispielsweise für die Kontaktaufnahme mit dem Kundensupport. Die Struktur hängt stark vom Verwendungszweck ab. Unterschiedliche Formulare benötigen verschiedene Felder. Für jeden Verwendungszweck müsste ein eigenes Formular entwickelt werden. Das kostet Zeit, da aufgrund dessen andere Entwicklungen hintenanstehen. Gelöst werden kann dieser Umstand, wenn der Kunde in der Lage ist, das gewünschte Formular selbst zu erstellen. Da die Eingabefelder somit nicht mehr statisch vorgegeben sind, ist die Rede von dynamischen Formularen. Diese wiederkehrende Anforderung wurde bereits in mehreren SAP Commerce Projekten der dotSource GmbH umgesetzt. Um die Projektrealisierung schneller und kosteneffizienter zu gestalten, soll eine allgemeingültige Lösung geschaffen werden. In neueren Versionen von SAP Commerce wird das alte Content Management Systeme (CMS) WCMS durch das neuere SmartEdit ersetzt. Ein häufiger Kritikpunkt des WCMS ist die Trennung der Bearbeitungsansicht von der Darstellung. Das erfordert den ständigen Wechsel zwischen beiden Oberflächen, um Änderungen zu verifizieren. SmartEdit kombiniert die Ansichten miteinander und lässt den Manager der Seiteninhalte sofort das Ergebnis sehen. Aufgrund dessen soll die Integration für SmartEdit im Fokus stehen. Ziel dieser Bachelorarbeit soll es sein, eine Möglichkeit zu schaffen, dynamische Formulare mittels SmartEdit zu verwalten. Es sollen dazu Lösungsansätze evaluiert werden und die Umsetzung eines gewählten Ansatzes erfolgen. Damit eine Wiederverwendung in zukünftigen Projekten der dotSource GmbH ermöglicht wird, sollen bestehende Implementierungen zusammengefasst und in einer modularisierten Form zugänglich gemacht werden. Schichtenarchitektur von SAP Commerce Kostenloser Download der gesamten Bachelorarbeit Categories IT
Software- und Hardwaretest Minimal Linux Posted on 17. Juni 201918. Juli 2024AuthorAuthor Christian Otto Grötsch Beinahe täglich schreitet die Technik der Gegenwart voran und Endnutzer sind oft überfordert von der Auswahl. Bei diesem Problem helfen Benchmarks und andere Ratingverfahren. Durch diese bleibt dem Nutzer die mühselige Auseinandersetzung mit den technischen Details erspart und die Parameter zum Kauf neuer Produkte reduzieren sich auf Preis und Ratingpoints. Doch was steckt hinter diesen Verfahren zum Messen der Leistungsfähigkeit von modernen Computern und Laptops und wie repräsentativ sind diese? Microsoft bietet von Haus aus eine Leistungsindexermittlung an, die im laufenden System ausgeführt wird und dabei die aktuelle Hardware testet und eine Punktzahl ausgibt, die in einer Liste mit anderen ähnlichen Konfigurationen anderer Besitzer verglichen werden kann. Ferner gibt es Anwendungssoftware, die mitunter detailliertere Ergebnisse präsentieren. Doch wo der Endnutzer den Zahlen vertraut, sollte die Fachkraft die Zahlen und deren Erhebungsart hinterfragen. Die Studienarbeit ist in vier Kapitel gegliedert: die Einleitung, die Vorbetrachtung und Vorbereitung, die Realisierung und das Fazit. Nach einer kurzen Einstimmung in das Thema erfolgt die Beschreibung des Problems, sowie die Darlegung des Ziels und der Abgrenzung. Durch das Umreißen der Vorgehensweise wird das Kapitel abgeschlossen. Im zweiten Kapitel wird zunächst der grundsätzliche Vorgang des Starten eines Computers oder Laptops beschrieben. Dadurch resultiert ein Teil der Anforderungen und ein grober Entwurf der späteren Umgebung. Anschließend werden diverse Anforderungen an die Umgebung genauer betrachtet, um den Rahmen für das Zielsystem enger zu fassen. Abschließend werden alternative Methoden zur Realisierung des Projektes kurz umrissen, wobei die genaue Darlegung der ausgewählten Methode durch den praktischen Teil beschrieben wird. Die Realisierung beschreibt die Umsetzung des Projektes im Kern und dokumentiert die Vorgehensweise. Dabei wird zunächst am Anfang das Build-Skript von Minimal-Linux-Live im Detail diskutiert. Anschließend werden die Anpassungen am Skript und die Überführung in das erweiterte Skript thematisiert. Dabei wird der Umgang mit der Kernelkonfiguration beschrieben und welche Optionen eingeführt wurden um die Anforderungen abzudecken. Den Abschluss bildet die Bearbeitung des Boot-Mediums und die Auswertung der Testlaufes. Im letzten Teil der Arbeit wird ein Resümee über die Studienarbeit gezogen und eine Auswertung bezüglich der Zielstellung gemacht. Abschließend werden Verbesserungsvorschläge festgehalten, die im Rahmen der Arbeit nicht mehr realisiert werden konnten. Kostenloser Download der gesamten Studienarbeit Categories IT
Faltungsnetzwerke zum Kategorisieren von Onlineshop-Webseiten Posted on 8. Mai 201818. Juli 2024AuthorAuthor Christian Otto Grötsch Die Klassifizierung von Mustern stellt für Maschinen immer noch ein Problem dar. Mit der Einführung des Begriffs “Deep Learning” 2006, wurde der schon für fast tot erklärte Zweig der Neuronalen Netze des Fachbereichs Maschinelles Lernen wieder entdeckt. Dabei wurden speziell in den letzten fünf Jahren große Erfolge mit Faltungs- netzen erzielt. Faltungsnetze zählen zu den “Deep neural networks” und basieren auf Techniken der digitalen Signalverarbeitung. In die- ser Arbeit werden verschiedene Faltungsnetzwerke erstellt und auf ihre Fähigkeiten zu klassifizieren und zu generalisieren überprüft. Bei den zu klassifizierenden Daten handelt es sich um Bilder von Shop-Webseiten, diese sollen in die Kategorien Produktdetailseiten und Nicht-Produktdetailseiten eingeteilt werden. Dabei wird auf Al- gorithmen und Techniken zurückgegriffen, die in Modellen Verwen- dung finden die als State of the Art gelten. Kostenloser Download der gesamten Bachelorarbeit Categories IT
Weiterentwicklung des Systems zur automatisierten Generierung von virtuellen Maschinen in der dotSource GmbH Posted on 2. Mai 201618. Juli 2024AuthorAuthor Christian Otto Grötsch Das Ziel dieser Arbeit ist es, ein Prozessmodell für die Verwendung virtueller Maschinen innerhalb der dotSource GmbH zu entwickeln, das bestehende Konfigurationssystem anhand dieses Modells weiterzuentwickeln und hinsichtlich seiner Effektivität zu bewerten. Um zunächst das Verständnis für den Umgang mit den verwendeten Technologien zu verbessern, werden in Kapitel 2 die technischen Grundlagen von Vagrant und Puppet überblicksartig erläutert. Dabei wird sowohl auf deren Funktion im vorliegenden Projekt als auch die konkrete Handhabung eingegangen. Für die Entwicklung des Modells werden grundlegende Techniken des Prozessmanagements angewendet. Aus diesem Grund wird im Kapitel 3 ein Überblick zu dessen Motivation gegeben und auf den konkreten Nutzen im vorliegenden Projekt eingegangen. Zur weiteren Vertiefung dieser Thematik werden theoretische Grundlagen hinsichtlich der Bestandteile und Darstellung von Prozessmodellen erörtert. Innerhalb der anschließenden Modellentwicklung werden alle Tätigkeit, die im Rahmen eines beliebigen Szenarios im Umgang mit virtuellen Maschinen von Relevanz sind, abstrahiert und in den Prozessverlauf eingeordnet. Auf der Basis der zuvor ermittelten theoretischen Kenntnisse entsteht so das finale Prozessmodell. Im nachfolgenden Kapitel 4 wird die praktische Weiterführung des Systems erläutert. Hier wird in separaten Abschnitten auf die vorliegenden und neu ermittelten Anforderungen der einzelnen Abteilungen eingegangen, der aktuelle Stand vorgestellt und auf die konkrete technische Realisierung Bezug genommen. Des Weiteren werden in diesem Zusammenhang abschließend Problemstellungen, die im Rahmen der Umsetzung festgestellt und als relevant für die Projektfortführung eingeschätzt wurden, dargelegt und erläutert. Nachdem ein passendes Modell entwickelt und die geplanten Umsetzungen durchgeführt wurden, bildet die Auswertung der Ergebnisse den Kern des Kapitels 5. In diesem werden alle Aspekte der ermittelten Einsatzszenaren hinsichtlich des bisher etablierten Vorgehens und der durchgeführten Automatisierung betrachtet. Das erstellte Modell bildet dabei die Basis für zeitliche Messungen und eine objektive Bewertung im Rahmen der entwickelten Testszenarien. Innerhalb einer abschließenden Gegenüberstellung der erfassten Ergebnisse wird die Wirtschaftlichkeit der durchgeführten Maßnahmen bewertet und ein erster Ausblick zur Zukunft der betrachteten Prozesse gegeben. Abschließend werden im Rahmen des Fazits noch einmal wichtige Zwischenergebnisse zusammengefasst und die daraus abgeleiteten Erkenntnisse vorgestellt. Kostenloser Download der gesamten Bachelorarbeit Categories IT