
NOWYMożesz teraz słuchać artykułów Fox News!
Nie bez powodu ufasz ustawieniom zabezpieczeń poczty e-mail. Kiedy więc asystent AI po cichu czyta i podsumowuje wiadomości oznaczone jako poufne, zaufanie to zostaje nadszarpnięte.
Microsoft twierdzi, że wystąpił błąd Drugi pilot Microsoft 365 od końca stycznia zezwoliła funkcji czatu AI na przetwarzanie wrażliwych e-maili.
W tym problemie pominięto zasady zapobiegania utracie danych, na których opierają się organizacje w celu ochrony prywatnych informacji. Mówiąc prościej, e-maile, które miały pozostać zamknięte, i tak zostały podsumowane.
Zarejestruj się, aby otrzymać mój DARMOWY raport CyberGuy
Otrzymuj moje najlepsze wskazówki techniczne, pilne alerty dotyczące bezpieczeństwa i ekskluzywne oferty prosto do swojej skrzynki odbiorczej. Dodatkowo otrzymasz natychmiastowy dostęp do mojego Przewodnika po przetrwaniu w oszustwie – bezpłatnie, jeśli dołączysz do mojego CYBERGUY.COM biuletyn
Interfejs czatu roboczego platformy Microsoft 365 Copilot znalazł się w centrum problemu po tym, jak błąd umożliwił mu podsumowywanie poufnych wiadomości e-mail. (Microsoftu)
Błąd Microsoft 365 Copilot podsumowujący poufne wiadomości e-mail
Microsoft twierdzi, że błąd kodowania miał wpływ na usługę Microsoft 365 Copilot Chat, a w szczególności na funkcję „karty pracy”. Asystent AI pomaga użytkownikom biznesowym podsumowywać treści, szkicować odpowiedzi i analizować informacje w programach Word, Excel, PowerPoint, Outlook i OneNote.
Od 21 stycznia wewnętrzny błąd oznaczony jako CW1226324 powodował, że Copilot czytał i podsumowywał wiadomości e-mail przechowywane w folderach Elementy wysłane i Wersje robocze.
Prawdziwy niepokój sięga głębiej. Kilka z tych wiadomości miało etykietę poufności lub wrażliwości.
Firmy stosują te etykiety wraz z zasadami DLP, aby blokować zautomatyzowanym systemom dostęp do treści zastrzeżonych. Pomimo tych zabezpieczeń Copilot nadal generował podsumowania.
Skontaktowaliśmy się z firmą Microsoft i jej rzecznik przekazał CyberGuyowi następujące oświadczenie:
„Zidentyfikowaliśmy i rozwiązaliśmy problem polegający na tym, że usługa Microsoft 365 Copilot Chat mogła zwracać treść z wiadomości e-mail oznaczonych jako poufne, których autorem był użytkownik i przechowywanych w jego elementach roboczych i wysłanych na komputerze programu Outlook. Nie zapewniało to nikomu dostępu do informacji, do których nie był jeszcze upoważniony. Chociaż nasze zasady kontroli dostępu i ochrony danych pozostały niezmienione, to zachowanie nie spełniło zamierzonego działania rozwiązania Copilot, które ma na celu wykluczenie chronionych treści z dostępu Copilot. Aktualizacja konfiguracji została wdrożona na całym świecie dla klientów korporacyjnych”.
Dlaczego błąd rozwiązania Microsoft 365 Copilot ma znaczenie dla bezpieczeństwa danych
Narzędzia AI wydają się pomocne. Oszczędzają czas i ograniczają nakład pracy. Ale polegają również na głębokim dostępie do Twoich danych. Gdy zabezpieczenia zawodząnawet tymczasowo poufne treści mogą zmieniać się w sposób, którego się nie spodziewałeś.
TWOJ TELEFON UDOSTĘPNIA DANE W NOCY: OTO JAK TO ZATRZYMAĆ
Dla firm może to oznaczać:
Dyskusje prawne podsumowane poza zamierzonymi kontrolami
Projekcje finansowe przetwarzane pomimo ograniczeń
Komunikacja HR poddawana jest automatycznej analizie
Nawet jeśli żadne dane nie opuszczą organizacji, samo obejście budzi obawy dotyczące integracji sztucznej inteligencji korporacyjne systemy bezpieczeństwa.
Użytkownicy biznesowi polegają na rozwiązaniu Copilot, jeśli chodzi o usprawnienie pracy, ale niedawny błąd wzbudził obawy dotyczące sposobu, w jaki rozwiązanie to obsługuje wrażliwe treści e-maili. (Microsoftu)
Jak firma Microsoft naprawia błąd rozwiązania Microsoft 365 Copilot
Microsoft twierdzi, że zaczął wdrażać poprawkę na początku lutego. Firma w dalszym ciągu monitoruje wdrożenie i kontaktuje się z niektórymi użytkownikami, których dotyczy problem, aby sprawdzić, czy poprawka działa.
Firma Microsoft nie podała jednak ostatecznego harmonogramu pełnego naprawienia problemu. Nie ujawniono również, ile organizacji zostało dotkniętych.
Problem jest oznaczony jako porada, co zwykle sygnalizuje ograniczony zakres lub wpływ. Mimo to wielu specjalistów ds. bezpieczeństwa będzie chciało uzyskać większą przejrzystość, zanim poczuje się komfortowo.
Co ten problem Microsoft 365 Copilot ujawnia na temat bezpieczeństwa AI
To wydarzenie uwydatnia problem, z którym boryka się obecnie wiele firm. Asystenci AI znajdują się na platformach produktywności. Aby dobrze działać, potrzebują dostępu do poczty e-mail, dokumentów i narzędzi do współpracy.
TIKTOK PO WYPRZEDAŻY W USA: CO ZMIENIŁO SIĘ I JAK BEZPIECZNIE Z NIEGO KORZYSTAĆ
Jednocześnie platformy te zawierają Twoje najbardziej wrażliwe informacje. Gdy funkcje sztucznej inteligencji szybko się rozwijają, zasady bezpieczeństwa muszą ewoluować równie szybko. W przeciwnym razie nawet niewielki błąd w kodzie może spowodować nieoczekiwane narażenie.
Funkcja czatu Copilot została zaprojektowana w celu zwiększenia produktywności, ale błąd w kodzie pozwolił jej przetwarzać wiadomości e-mail oznaczone jako poufne. (Microsoftu)
Sposoby zachowania bezpieczeństwa po błędzie Microsoft 365 Copilot
Jeśli Twoja organizacja korzysta z rozwiązania Microsoft 365 Copilot, oto praktyczne kroki pozwalające zmniejszyć ryzyko:
1) Przejrzyj ustawienia dostępu Copilot
Współpracuj ze swoim zespołem IT, aby sprawdzić, do których folderów i źródeł danych ma dostęp Copilot.
2) Ponownie zweryfikuj zasady DLP
Przetestuj etykiety czułości i reguły DLP (zapobieganie utracie danych), aby upewnić się, że blokują przetwarzanie AI zgodnie z zamierzeniami.
3) Monitoruj aktualizacje doradców
Bądź na bieżąco z alertami usług firmy Microsoft i sprawdzaj, czy poprawka została w pełni wdrożona w Twojej dzierżawie.
4) Ogranicz zakres AI podczas dochodzeń
Jeśli masz wątpliwości, rozważ tymczasowe ograniczenie funkcji Copilot do czasu zakończenia weryfikacji.
5) Szkolić pracowników w zakresie granic sztucznej inteligencji
Przypomnij pracownikom, że asystenci AI mogą przetwarzać wersje robocze i wysyłać wiadomości. Zachęcaj do ostrożnego obchodzenia się z wrażliwymi treściami.
6) Kontroluj dzienniki aktywności Copilot
Przejrzyj dzienniki kontrolne, aby sprawdzić, czy Copilot uzyskał dostęp do e-maili oznaczonych etykietą lub je podsumował. Pomaga to określić rzeczywiste narażenie, a nie zakładane ryzyko.
7) Przejrzyj konfigurację etykiety czułości
Upewnij się, że poufne etykiety są skonfigurowane tak, aby w razie potrzeby blokowały przetwarzanie AI. Źle skonfigurowane etykiety mogą powodować luki nawet po naprawieniu błędu.
8) Ponowna ocena przechowywania i projekt zasad
Ponieważ problem dotyczył przesyłek wysłanych i wersji roboczych, należy ocenić, czy poufne wersje robocze powinny być przechowywane długoterminowo, czy też usuwane po wysłaniu.
9) Ogranicz Copilot do określonych grup użytkowników
Zamiast włączać rozwiązanie Copilot w całej organizacji, rozważ etapowe wdrożenie w działach o mniejszej wrażliwości.
10) Przeprowadzić przegląd bezpieczeństwa po incydencie
Wykorzystaj ten moment, aby ponownie ocenić, w jaki sposób narzędzia AI integrują się z mechanizmami kontroli zgodności. Traktuj to jako okazję do nauki, a nie jednorazową usterkę.
Wskazówka dla profesjonalistów: Ten błąd Copilot dotyczy kontroli korporacyjnej. Mimo to narzędzia AI działają na Twoich urządzeniach i kontach, dlatego aktualizowanie oprogramowania i używanie silnego oprogramowania antywirusowego stanowi ważną warstwę ochrony. Poznaj moje typy najlepszych zwycięzców ochrony antywirusowej 2026 dla urządzeń z systemem Windows, Mac, Android i iOS na stronie Cyberguy.com
Biorąc pod uwagę bardziej prywatnego dostawcę poczty e-mail
Błędy AI w przedsiębiorstwie rodzą większe pytanie: przede wszystkim, jaki poziom dostępu platformy e-mailowe powinny mieć do Twoich danych? Jeśli potrzebujesz dodatkowej warstwy prywatności poza głównymi dostawcami, warto zapoznać się z usługami e-mail zorientowanymi na prywatność.
Niektóre oferują kompleksowe szyfrowanie, obsługę szyfrowania PGP i rygorystyczny model biznesowy bez reklam, który pozwala uniknąć skanowania wiadomości w celach marketingowych.
URZĄDZENIA AI POMAGAJĄ OSOBOM PO UDARZENIU ZNÓW MÓWIĆ
Wiele z nich umożliwia także tworzenie jednorazowych aliasów e-mail, co może ograniczyć spam i ryzyko narażenia w przypadku naruszenia bezpieczeństwa jednego adresu.
Choć żaden dostawca nie jest odporny na błędy oprogramowania, wybranie usługi e-mail opartej na prywatności, a nie na monetyzacji danych, może przede wszystkim ograniczyć dostęp do informacji dla zautomatyzowanych systemów.
Zwłaszcza dla osób prywatnych, dziennikarzy i małych firm ta dodatkowa kontrola może mieć znaczące znaczenie.
Aby zapoznać się z zaleceniami dotyczącymi prywatnych i bezpiecznych dostawców poczty e-mail oferujących aliasy, odwiedź stronę Cyberguy.com
Najważniejsze wnioski Kurta
Asystenci AI stają się częścią codziennego życia zawodowego. Obiecują szybkość, wydajność i inteligentniejszy przepływ pracy. Jednak wygoda nigdy nie powinna przewyższać bezpieczeństwa.
Ten błąd Copilot może mieć ograniczony wpływ. Mimo to przypomina, że narzędzia AI są tak mocne, jak bariery za nimi.
Kiedy te bariery się przesuną, nawet na krótko, wrażliwe informacje mogą zostać przeniesione w nieoczekiwany sposób. W miarę jak sztuczna inteligencja będzie coraz bardziej osadzona w oprogramowaniu biznesowym, zaufanie będzie zależeć od przejrzystości, szybkich rozwiązań i jasnej komunikacji.
Oto prawdziwe pytanie: jeśli Twój asystent AI widzi wszystko, co piszesz, czy masz całkowitą pewność, że przestrzega wszystkich ustawionych przez Ciebie granic? Daj nam znać, pisząc do nas na adres Cyberguy.com
KLIKNIJ TUTAJ, ABY POBRAĆ APLIKACJĘ FOX NEWS
Zarejestruj się, aby otrzymać mój DARMOWY raport CyberGuy Otrzymuj moje najlepsze wskazówki techniczne, pilne alerty dotyczące bezpieczeństwa i ekskluzywne oferty prosto do swojej skrzynki odbiorczej. Dodatkowo otrzymasz natychmiastowy dostęp do mojego Przewodnika po przetrwaniu w oszustwie – bezpłatnie, jeśli dołączysz do mojego CYBERGUY.COM biuletyn
Prawa autorskie 2026 CyberGuy.com. Wszelkie prawa zastrzeżone.