避免成為惡意攻擊跳板 羅技推出安全層級更高的USB收發器
或許是考量近期諸多網路安全攻擊是透過USB設備連接過程觸發,因此羅技宣布推出新款以Bolt技術打造的USB收發器,藉此對應更高安全層級的Security Mode 1,以及對應Level 4等級加密防護。
而新款USB收發器仍基於低功耗藍牙連接規範,但採用美國國家標準及技術研究院 (NIST)提出的Diffie-Hellman P-256 (ECDH)與AES-CCM加密技術,並且符合美國聯邦資訊處理標準 (FIPS),藉此確保裝置連接傳遞資訊時的加密安全。
不過,由於採Bolt技術打造,因此新款USB收發器僅有支援相同技術的鍵盤與滑鼠配件可相容使用,無法直接用於現行銷售的產品。配合新款USB收發器設計,羅技準備在9月開始推出包含以MX Master 3、MX Keys商用版本構成的鍵盤滑鼠組合,以及Ergo K680人體工學鍵盤、MX Anywhere 3、Ergo M575無線軌跡球等先前推出配件產品商用版本設計。
至於對應Bolt技術的USB收發器仍維持USB-A介面設計,為了增加使用便利性更將可配對連接裝置數量增加至6組,相較先前以Unifying技術打造版本最多支援3組的設計多了一倍,而有效連接距離則仍維持在10公尺左右,並且將以14.99美元價格獨立銷售。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》
商品推薦
Proof-of-Work Blockchain Ergo Set to Host its Second Hackathon ERGOHACK II
Proof-of-Work Blockchain Ergo Set to Host its Second Hackathon ERGOHACK II
Ergo is a Proof-of-Work blockchain that is based on the UTXO model. In this sense it is similar to Bitcoin, as Ergo employs standard Elliptic Curve Cryptography and the identical curve to that of Bitcoin (Secp256k1).
At Ergo, the mission is to build a network for the average person that is robust, open, accessible and resistant to censorship. The main goal is to develop a financial platform that employs smart contracts for the benefit of the public – thereby putting tooling in the hands of those who most need it.
A decade of blockchain research and development has laid the groundwork for Ergo’s robust cryptography capabilities and groundbreaking DeFi functionality.
Ergo is built on ten years of blockchain development, combining proven concepts with peer-reviewed academic research in encryption, consensus models, and digital currencies.
Another distinguishing element of Ergo is the concept of storage-rent, which allows miners to withdraw a modest quantity of ERGs from boxes that have been unused for four or more years (the box is spent, and a new box is created with the lower value). This enables Ergo to avoid the UTXO set being bloated over time.
Ergo begins with a firm foundation in blockchain fundamentals and integrates new and sophisticated cryptography natively. The team has extensive experience developing fundamental components for cryptocurrencies and blockchain frameworks such as Nxt, Scorex, and Waves. Moreover, Ergo’s native and powerful Sigma protocols (a robust and flexible class of zero knowledge proof) serve as the underlying technology for the implementation of smart contracts on the platform.
ERGOHACK II
Following the success at its first hackathon event, Ergo is set to launch a second hackathon, ERGOHACK II, between October 8-10 later this year. ERGOHACK II will explore discussions around the topic of social transformation.
In this hackathon, interested developer teams of 2 – 5 members will submit and workshop proposals for solutions that can provide global adoption of blockchain technologies. All projects developed during the Hackathon will be considered for implementation within the growing ecosystem of Ergo.
A prize pool of over $9k SigUSD (Ergo’s crypto-backed algorithmic stablecoin) has been announced for winners of various categories. Additionally, standout developers will have the opportunity of being offered a job interview to join the Ergo team.
“It is our goal at Ergo to create a network for the people, censorship-resistant, resilient, open and free. It is our goal to build a system that creates smart contracts for the people, to put tooling in the hands of those that need it the most,” Ergo Manifesto.
According to CoinMarketCap, the price of ERG trades at $14.6 with a 24-hour trading volume of $5,870,438, at the time of press.
AWS-Plattform von ERGO ist revolutionär für die Versicherungsbranche
Wird Künstliche Intelligenz (KI) im Versicherungswesen richtig eingesetzt, kann sie die Entscheidungsfindung verbessern, die Effizienz der Abläufe steigern, und eine reibungslose Kundenbetreuung bieten. Allerdings setzen KI-Innovationen ein hohes Maß an Flexibilität bei der Datenintegration voraus. Das konnten die meisten der Legacy-Datenarchitekturen der ERGO Group nicht bieten. Die Anforderungen an interne Governance, Datenschutz und IT-Sicherheit erschwerten die Integration zusätzlich. Dieses Problem musste gelöst werden, um KI auf Unternehmensebene nutzen und auch sensible Daten in einer Cloud-Umgebung verwenden zu können.
von Piotr Klesta, Delivery Director und Mitglied des ERGO-Führungsteams &
Robert Meisner, Lead Product Owner der AI Factory bei ERGO &
Sid Singh, Amazon Web Services
Aufbau der ERGO AI Factory zur Unterstützung von KI-Anwendungsfällen
Vor diesem Hintergrund entstand die Idee, ein zentrales System zu entwickeln, um in andere Kernanwendungen und damit auch in die Geschäftsprozesse von ERGO „Intelligenz“ zu implementieren. Die geplante Plattform sollte die Entwicklung, das Training und das Testen komplexer KI-Modelle unterstützen und die betriebliche Effizienz erhöhen. Letztlich ging es darum, den Daten-Teams durch die Plattform allgemein schwierige Aufgaben abzunehmen, sodass sie sich auf ihre Stärken konzentrieren können: das Analysieren von Daten und die Gewinnung neuer Erkenntnisse.
So entstand die ERGO AI Factory auf Basis der AWS Cloud. Es handelt sich dabei um eine Compliance-konforme Plattform für das Ausführen produktionsreifer KI-Anwendungsfälle, die darüber hinaus eine flexible Umgebung für die Modellentwicklung und Modellprüfung bietet. Sie enthält folgende Funktionen und Dienste:
Compliance: Die Umsetzung von Sicherheitsmaßnahmen wie Authentifizierung, Verschlüsselung und das Least-Privilege-Prinzip zählte zu den obersten Prioritäten bei der Entwicklung der Plattform. Um die strengen bereichs- und geospezifischen Compliance-Anforderungen zu erfüllen, arbeiteten die Verantwortlichen eng mit den Sicherheitsteams zusammen.
Die Umsetzung von Sicherheitsmaßnahmen wie Authentifizierung, Verschlüsselung und das Least-Privilege-Prinzip zählte zu den obersten Prioritäten bei der Entwicklung der Plattform. Um die strengen bereichs- und geospezifischen Compliance-Anforderungen zu erfüllen, arbeiteten die Verantwortlichen eng mit den Sicherheitsteams zusammen. Data Governance: Die Ermittlung der Datenherkunft und die tiefe Extraktion von Metadaten unterstützen die ordnungsgemäße Datenverwaltung und Nachvollziehbarkeit. Und die Anwender können sich dadurch besser in der komplexen Datenlandschaft zurechtfinden. Die entsprechenden Frameworks von ERGO enthalten sowohl Dienste von Drittanbietern als auch von AWS. Damit lassen sich technische sowie geschäftliche Metadaten erfassen und katalogisieren.
Die Ermittlung der Datenherkunft und die tiefe Extraktion von Metadaten unterstützen die ordnungsgemäße Datenverwaltung und Nachvollziehbarkeit. Und die Anwender können sich dadurch besser in der komplexen Datenlandschaft zurechtfinden. Die entsprechenden Frameworks von ERGO enthalten sowohl Dienste von Drittanbietern als auch von AWS. Damit lassen sich technische sowie geschäftliche Metadaten erfassen und katalogisieren. Datenspeicherung und -zugriff: AI Factory speichert Daten sicher und Compliance-konform im Amazon Simple Storage Service (S3). Zugriffsrechte werden nur Personen gewährt, die an den entsprechenden Projekten arbeiten. Die jeweiligen Rollen werden im Active Directory definiert.
AI Factory speichert Daten sicher und Compliance-konform im Amazon Simple Storage Service (S3). Zugriffsrechte werden nur Personen gewährt, die an den entsprechenden Projekten arbeiten. Die jeweiligen Rollen werden im Active Directory definiert. Automatisierte Daten-Pipelines: Um eine flexible und robuste Datenintegrationslösung anbieten zu können, setzt ERGO auf eine ETL-Pipeline mit Apache Spark, Apache Airflow und Kubernetes-Pods. Diese lässt sich für die Entwicklung von KI-Modellen und die anschließende Datenaufbereitung für die Operationalisierung und Modellintegration nutzen.
Um eine flexible und robuste Datenintegrationslösung anbieten zu können, setzt ERGO auf eine ETL-Pipeline mit Apache Spark, Apache Airflow und Kubernetes-Pods. Diese lässt sich für die Entwicklung von KI-Modellen und die anschließende Datenaufbereitung für die Operationalisierung und Modellintegration nutzen. Monitoring und Sicherheit: AI Factory stützt sich auf Open-Source-Cloud-Monitoring-Lösungen wie Grafana, um Sicherheitsbedrohungen und Anomalien zu erkennen. Diese Lösungen sammeln Service- und Anwendungsprotokolle, verfolgen Metriken und erzeugen Alarme.
- AI Factory stützt sich auf Open-Source-Cloud-Monitoring-Lösungen wie Grafana, um Sicherheitsbedrohungen und Anomalien zu erkennen. Diese Lösungen sammeln Service- und Anwendungsprotokolle, verfolgen Metriken und erzeugen Alarme. Feedback-Schleife : Nach dem Speichern der Modelleingaben und -ausgaben werden das Verhalten und die Leistung produktiver KI-Modelle mithilfe von BI-Tools wie Amazon QuickSight verfolgt. Diese Informationen teilt ERGO mit Geschäftspartnern, um ihr Vertrauen in die KI zu stärken.
-
Nach dem Speichern der Modelleingaben und -ausgaben werden das Verhalten und die Leistung produktiver KI-Modelle mithilfe von BI-Tools wie Amazon QuickSight verfolgt. Diese Informationen teilt ERGO mit Geschäftspartnern, um ihr Vertrauen in die KI zu stärken. Entwicklerfreundliche Umgebung: Die Erstellung von KI-Modellen ist auf mobilen Endgeräten sowie in einer integrierten Entwicklungsumgebung möglich. Da die Daten-Teams eine Vielzahl von Frameworks und Bibliotheken für maschinelles Lernen (ML) verwenden, stellt AWS sicher, dass die Plattform erweiterbar und die Frameworks unabhängig bleiben. Unterstützt werden unter anderem Python/R, Apache Spark, PyTorch und TensorFlow. Prozesse im Rahmen von Continuous Integration (CI) und Continuous Development (CD) beschleunigen die Bereitstellung und senken die Fehlerrate.
Die Erstellung von KI-Modellen ist auf mobilen Endgeräten sowie in einer integrierten Entwicklungsumgebung möglich. Da die Daten-Teams eine Vielzahl von Frameworks und Bibliotheken für maschinelles Lernen (ML) verwenden, stellt AWS sicher, dass die Plattform erweiterbar und die Frameworks unabhängig bleiben. Unterstützt werden unter anderem Python/R, Apache Spark, PyTorch und TensorFlow. Prozesse im Rahmen von Continuous Integration (CI) und Continuous Development (CD) beschleunigen die Bereitstellung und senken die Fehlerrate. Integration von Geschäftsprozessen: AI Factory bietet Dienste zur Integration von ML-Modellen in bestehende Geschäftsabläufe. Das ERGO-Team konzentriert sich vor allem auf die Standardisierung von Prozessen und die enge Zusammenarbeit mit geschäftlichen und technischen Stakeholdern. Das übergreifende Ziel besteht darin, das KI-Modell in kürzester Zeit zu operationalisieren und dabei hohe Qualitäts- und Sicherheitsstandards zu wahren.
Die Architektur der AI Factory
Umgebung für die Datenerfassung: Hier werden die Informationen aus bekannten On-Premises-Datenquellen von ERGO übernommen. Ihre Batch- oder Delta-Übertragung an verschiedene Cloud-Ziele lässt sich mithilfe mehrerer mit Kubernetes gehosteten Microservices planen. Nach dem Einlesen werden die Daten als ERGO Data Lake auf Amazon S3 persistent gespeichert, katalogisiert und auf die Verarbeitung durch die Upstream-Umgebungen vorbereitet. Umgebung für die Modellentwicklung: Diese Umgebung wird hauptsächlich von Data Scientists und Data Engineers genutzt. Für die Datenaufbereitung, das Daten-Wrangling – also das Transformieren und Zuordnen in bestimmte Formate – das Experimentieren mit Vorhersagemodellen sowie für die Entwicklung auf Basis schneller Iterationen kommen Amazon EMR und Amazon SageMaker zum Einsatz. Umgebung für die Modell-Operationalisierung: In diesem Schritt werden die trainierten Modelle mit zufriedenstellenden KPIs, von der Modellentwicklung in die Operationalisierungsumgebung überführt und damit in bestehende Geschäftsprozesse integriert. Das Team konzentriert sich dabei auf die Einführung und Optimierung des Betriebs von Diensten und Algorithmen. Eine wesentliche Voraussetzung für die erfolgreiche Operationalisierung von Modellen ist die kontinuierliche Überwachung der Qualität der eingesetzten ML-Modelle mithilfe des „Feedback Loop Service“. Die Einbindung der KI-Modelle in Geschäftsabläufe wird mithilfe des von Kubernetes gehosteten „Model Service“ ermöglicht. Umgebung für Modelleinsichten: Hier werden die Informationen über Plattformleistung, Prozesse und Analysedaten angezeigt. Datenwissenschaftler prüfen anhand dieser Dienste, ob ein Modell unerwartete Verzerrungen oder Leistungsabweichungen aufweist. Rückmeldungen über den „Feedback Loop Service“ unterstützen sie dabei, Probleme schnell zu erkennen und das Modell neu zu trainieren. Shared-Services-Umgebung: Obwohl als fünfter Schritt des Workflows dargestellt, unterstützt die Shared-Services-Umgebung fast jeden Schritt des Prozesses. Sie bietet gemeinsame Komponenten für verschiedene Teile der Plattform, die CI/CD- und Orchestrierungsprozesse innerhalb der AI Factory verwalten. Zusätzliche Dienste wie Plattformprotokollierung und -überwachung, Authentifizierung und Metadaten-Management werden ebenfalls von der Shared-Services-Umgebung bereitgestellt.
Die Autoren: Piotr Klesta, Robert Meisner & Sid Singh Piotr Klesta ist eine erfahrene Führungskraft mit umfassenden Managementkenntnissen, die er in großen Versicherungs-, Bank- und Technologieunternehmen erworben hat. Als Delivery Director und Mitglied des ERGO-Führungsteams entwickelt Piotr Klesta die Roadmap und leitet das Portfolio von Projekten und strategischen Initiativen im Bereich KI und Daten. Zuletzt leitete er den erfolgreichen Launch der AI Factory, führte neue Arbeitsweisen ein und baute Partnerschaften und leistungsstarke Teams auf. ist eine erfahrene Führungskraft mit umfassenden Managementkenntnissen, die er in großen Versicherungs-, Bank- und Technologieunternehmen erworben hat. Als Delivery Director und Mitglied des ERGO-Führungsteams entwickelt Piotr Klesta die Roadmap und leitet das Portfolio von Projekten und strategischen Initiativen im Bereich KI und Daten. Zuletzt leitete er den erfolgreichen Launch der AI Factory, führte neue Arbeitsweisen ein und baute Partnerschaften und leistungsstarke Teams auf. Robert Meisner verfügt über mehr als 12 Jahre Erfahrung im Bereich InsurTech und ist Lead Product Owner der AI Factory bei ERGO. Robert Meisner bietet MLOps-Funktionen an, die die Zeit für die Datenintegration und -aufbereitung zugunsten der eigentlichen Data-Science-Arbeit reduzieren. Er ist davon überzeugt, dass zuverlässige KI schon bald zu einem geschäftlichen Muss werden wird, das Fairness, Verständlichkeit, Stabilität, Datenherkunft und Transparenz gewährleistet. Sid Singh ist Senior Solutions Architect bei Amazon Web Services (Webseite). Er arbeitet mit globalen Finanzdienstleistungskunden zusammen und verfügt über mehr als 10 Jahre Branchenerfahrung mit einer breiten Palette von Technologien. Außerhalb der Arbeit reist er gerne, ist ein begeisterter Feinschmecker und Liebhaber von bayerischem Bier.
Über die verschiedenen Subplattformen hinweg werden alle Bereitstellungs- und Implementierungsaktivitäten mithilfe von IaC-Verfahren (Infrastructure as Code) automatisiert. Dies reduziert das Potenzial für menschliche Fehler, erhöht die architektonische Flexibilität und beschleunigt die Softwareentwicklung sowie die infrastrukturbezogenen Abläufe erheblich.
Alle Komponenten der AI Factory werden in der AWS-Cloud ausgeführt und lassen sich nach Bedarf skalieren und anpassen. Die Verbindung zwischen Modellentwicklung und Operationalisierung erfolgt über klar definierte Schnittstellen, um eine unnötige Verknüpfung von Komponenten zu verhindern.
Lessons Learned
Security first
Frühzeitige und häufige Abstimmung mit dem Sicherheitsteam;
Verstehen aller rechtlichen Verpflichtungen und Dokumentation als kritische, nicht-funktionale Anforderungen.
Modularer Ansatz
Kombination moderner Data-Science-Technologie und professioneller IT mit einer funktionsübergreifenden, agilen Arbeitsweise;
Anwendung lose gekoppelter Dienste mit einem API-First-Ansatz.
Data Governance
Nachverfolgung technischer Metadaten unter Berücksichtigung geschäftlicher Attribute;
Bestimmen der Dateneigentümerschaft in operativen Systemen, um vorgelagerte Data-Governance-Workflows abzubilden;
Erarbeiten von Lösungen für die Datenmaskierung, die erforderlich sind, wenn Informationen über Sub-Plattformen verschoben werden;
Definition von Zugriffsrechten und Berechtigungsgrenzen zwischen verschiedenen Personas.
FinOps-Strategie
Sorgfältige Kontrolle der Plattformkosten;
Zuweisung von Verantwortlichkeiten für Überwachung und Kostenkontrolle;
Regelmäßiges Feedback an die Plattform-Stakeholder über Nutzungsmuster und damit verbundene Kosten.
Zusammenarbeit mit dem AWS-Team
– Definition fester Zeiten für die Überprüfung der Architektur und die Aktualisierung neuer Funktionen;
– Planung von Cloud-Schulungen.
Die Zukunft der AI Factory
Die Entwicklung der AI Factory stellt einen wesentlichen Baustein der ERGO-Strategie dar und schafft die Voraussetzung zur Erstellung noch tiefer gehender Analysen. Dabei konzentriert sich das Team auf wichtige Anwendungsfälle, die einen besonders hohen Geschäftswert liefern.
Die Funktionen der AI Factory sollen erweitert und skaliert werden. Damit wird die Plattform auch für die internationalen ERGO-Tochtergesellschaften verfügbar.“
Geplant sind die Einrichtung einer „Drehscheibe für analytische Inhalte“, die auf automatischer Textextraktion basiert, eine verbesserte Umwandlung von Sprache in Text sowie die Entwicklung von Übersetzungsprozessen für alle unstrukturierten und semistrukturierten Daten mit Hilfe von AWS AI Services.Piotr Klesta (ERGO), Robert Meisner (ERGO) & Sid Singh (Amazon)
Sie finden diesen Artikel im Internet auf der Website:
Sie finden diesen Artikel im Internet auf der Website:https://itfm.link/124405
(3 Stimmen, Durchschnitt: 3,33 von maximal 5)
Stimmen, Durchschnitt:von maximal 5)
Loading… Loading…
(Visited 419 times, 89 visits today)