{"id":30747,"date":"2023-12-15T11:45:40","date_gmt":"2023-12-15T09:45:40","guid":{"rendered":"https:\/\/www.kaspersky.de\/blog\/?p=30747"},"modified":"2023-12-15T11:45:40","modified_gmt":"2023-12-15T09:45:40","slug":"gen-ai-worries","status":"publish","type":"post","link":"https:\/\/www.kaspersky.de\/blog\/gen-ai-worries\/30747\/","title":{"rendered":"Haben Unternehmen den Einsatz von generativer KI (noch) im Griff?"},"content":{"rendered":"<p>Vor einiger Zeit waren L\u00f6sungen im Bereich generativer KI noch technologische Neuheiten, mit denen die Nutzer experimentieren konnten. Innerhalb kurzer Zeit hat sich die Technologie von einem Experiment jedoch zu einem wichtigen Arbeitswerkzeug in vielen Bereichen und Organisationen entwickelt. So plant laut <a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/86\/2023\/10\/25123633\/Report-ENG-Gen-AI-Business-Infiltration-Oct-2023-v2.2.pdf\" target=\"_blank\" rel=\"noopener\">unserer Studie<\/a> auch mehr als die H\u00e4lfte der F\u00fchrungskr\u00e4fte (55,2 Prozent), KI-Tools in Zukunft st\u00e4rker zu nutzen und repetitive Aufgaben, die ihre Mitarbeiter derzeit t\u00e4glich erledigen, zu automatisieren. Dar\u00fcber hinaus strebt ein Drittel (34,4 Prozent) der Befragten an, die IT- und Cybersicherheitsabteilungen mithilfe von generativer KI zu automatisieren.<\/p>\n<blockquote class=\"twitter-pullquote\"><p>Wie sehen F\u00fchrungskr\u00e4fte den Einsatz K\u00fcnstlicher Intelligenz (KI) im eigenen Unternehmen?<\/p><a href=\"https:\/\/twitter.com\/share?url=https%3A%2F%2Fkas.pr%2Fu739&amp;text=Wie+sehen+F%C3%BChrungskr%C3%A4fte+den+Einsatz+K%C3%BCnstlicher+Intelligenz+%28KI%29+im+eigenen+Unternehmen%3F\" class=\"btn btn-twhite\" data-lang=\"en\" data-count=\"0\" target=\"_blank\" rel=\"noopener nofollow\">Tweet<\/a><\/blockquote>\n<p>Dabei scheint auch das Management noch in der Experimentierphase zu stecken. Auf die Frage, welche Themen auf C-Level-Ebene bez\u00fcglich generativer KI am in den vergangenen sechs Monaten am ehesten diskutiert wurden, gab nur jeder vierte Befragte (24,8 Prozent) an, sich C-Level mit Richtlinien besch\u00e4ftigt zu haben, die festlegen, wie Mitarbeitende KI-L\u00f6sungen nutzen d\u00fcrfen und wie hierbei mit Unternehmensdaten und personenbezogenen Informationen umzugehen ist. Dabei ist die Dynamik so gro\u00df und Risiken f\u00fcr die Datensicherheit von Unternehmen nicht mehr zu leugnen sind. Entsprechende Richtlinien w\u00e4ren jedoch von Bedeutung, da mehr als die H\u00e4lfte (54,8 Prozent) der Meinung sind, dass die eigenen Mitarbeitenden im Verborgenen, also unkontrolliert, KI-L\u00f6sungen bei der Arbeit nutzen.<\/p>\n<p>\u00a0<\/p>\n<h3>Die H\u00e4lfte beunruhigt m\u00f6glicher Abfluss sensibler Daten<\/h3>\n<p>Denn um effektiv zu arbeiten, ist generative KI auf kontinuierliches Lernen durch Dateneingabe angewiesen. Das bedeutet, dass alle Daten, die Mitarbeiter in eine KI-Anwendung wie ChatGPT oder Bard eingeben, nach au\u00dfen weitergegeben. Daher ist auch nicht verwunderlich, dass die H\u00e4lfte der in Deutschland befragten F\u00fchrungskr\u00e4fte (50,4 Prozent) Bedenken hat, dass Mitarbeiter bei der Eingabe von Informationen in KI-Plattformen sensible Unternehmens- oder Kundendaten preisgeben k\u00f6nnten.<\/p>\n<blockquote class=\"twitter-pullquote\"><p>Die H\u00e4lfte der in Deutschland befragten F\u00fchrungskr\u00e4fte hat Bedenken, dass Mitarbeiter bei der Eingabe von Informationen in KI-Plattformen sensible Unternehmens- oder Kundendaten preisgeben k\u00f6nnten.<\/p><a href=\"https:\/\/twitter.com\/share?url=https%3A%2F%2Fkas.pr%2Fu739&amp;text=Die+H%C3%A4lfte+der+in+Deutschland+befragten+F%C3%BChrungskr%C3%A4fte+hat+Bedenken%2C+dass+Mitarbeiter+bei+der+Eingabe+von+Informationen+in+KI-Plattformen+sensible+Unternehmens-+oder+Kundendaten+preisgeben+k%C3%B6nnten.\" class=\"btn btn-twhite\" data-lang=\"en\" data-count=\"0\" target=\"_blank\" rel=\"noopener nofollow\">Tweet<\/a><\/blockquote>\n<p>Dennoch scheint die Aussicht auf den Verlust sensibler Daten und der Kontrolle \u00fcber kritische Gesch\u00e4ftsbereiche die Unternehmensleitung nicht davon abzuhalten, weitere KI-Einsatzszenarien zu pushen \u2013 ohne \u00fcber klare Sicherheitsrichtlinien innerhalb es eigenen Unternehmens zu verf\u00fcgen. Dies birgt jedoch enorme Risiken f\u00fcr die Unternehmen. Bevor KI in gro\u00dfem Umfang eingesetzt wird, sollten die Verantwortlichen in den Unternehmen genau verstehen, wie die Nutzer die Daten verwenden, insbesondere im Zusammenhang mit generativer KI. Dar\u00fcber hinaus sollte es Regelwerke geben, an denen sich die Mitarbeiter orientieren k\u00f6nnen.<\/p>\n<p>\u00c4hnlich wie BYOD bietet generative KI enorme Produktivit\u00e4tsvorteile f\u00fcr Unternehmen. Aber w\u00e4hrend unsere Studie zeigt, dass F\u00fchrungskr\u00e4fte in den Vorstandsetagen die Verwendung von KI in ihren Unternehmen akzeptieren, ist das Ausma\u00df der Nutzung noch nicht umfassend gekl\u00e4rt. Da die rasante Entwicklung von K\u00fcnstlicher Intelligenz anh\u00e4lt, wird die deren unkontrollierte Verwendung \u00a0immer schwieriger zu kontrollieren und zu sichern. Das gilt in allen wichtigen Unternehmensfunktionen wie HR, Finanzen, Marketing oder sogar der IT. Bevor die Technologie eingesetzt wird, ist es zwingend erforderlich, dass vor jeder weiteren Integration von generativer KI in die Unternehmensumgebung ein umfassendes Verst\u00e4ndnis des Datenmanagements und die Implementierung robuster Richtlinien vorhanden ist.<\/p>\n<p>\u00a0<\/p>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"b2b\">\n","protected":false},"excerpt":{"rendered":"<p>Wie sehen F\u00fchrungskr\u00e4fte den Einsatz K\u00fcnstlicher Intelligenz (KI) im eigenen Unternehmen? Gibt es Regeln oder werden Google Bard oder OpenAI ChatGPT im eigenen Unternehmen sicherheitskritisch und ohne Kontrolle angewendet? Eine aktuelle Kaspersky-Studie gibt Aufschluss dar\u00fcber.<\/p>\n","protected":false},"author":437,"featured_media":30755,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[6],"tags":[1521,4028,1520,3749],"class_list":{"0":"post-30747","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-news","8":"tag-ai","9":"tag-chatgpt","10":"tag-ki","11":"tag-research"},"hreflang":[{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/gen-ai-worries\/30747\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/gen-ai-worries\/29502\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/gen-ai-worries\/28263\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/gen-ai-worries\/21170\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.de\/blog\/tag\/ai\/","name":"AI"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/30747","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/users\/437"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/comments?post=30747"}],"version-history":[{"count":3,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/30747\/revisions"}],"predecessor-version":[{"id":30757,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/posts\/30747\/revisions\/30757"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/media\/30755"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/media?parent=30747"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/categories?post=30747"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.de\/blog\/wp-json\/wp\/v2\/tags?post=30747"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}