• VR PodcastNOWOŚĆ
  • Reklama
  • Personalizacja
  • Zakładki
  • Historia
  • Twój Brandsit
  • MAGAZYN
  • Newsletter
Brandsit
  • Biznes
  • Pieniądze
  • Branża IT
  • Technologia
  • Eco
  • Work&Life
  • Opinie
Czytasz: Zaufanie i bezpieczeństwo, czyli czego brakuje nam w sztucznej inteligencji
POWIADOMIENIA Pokaż więcej
Aa
BrandsitBrandsit
  • Twoje zakładki
  • Śledź tematy
  • MAGAZYN
Szukaj
  • Biznes
    • Aktualności biznesowe
    • Biznes plan
    • E-commerce
    • Marketing
    • Rozwój
    • Startup
  • Pieniądze
    • Ekonomia
    • Inwestycje
    • Kryptowaluty
    • NFT
    • Podatki i koszty
    • Praca
  • Branża IT
    • Dystrybucja
    • Kanał partnerski
    • Kariera
    • Programowanie
    • Vendor
  • Technologia
    • Automatyzacja
    • Big Data
    • Blockchain
    • Chmura
    • Cyberbezpieczeństwo
    • IoT
    • Komunikacja
    • Rozwiązania
    • Sztuczna inteligencja
    • VR
  • Eco
    • Czysta energia
    • Pogoda i nauka
    • Pojazdy elektryczne
    • Polityka klimatyczna
    • Zrównoważony rozwój
  • Work&Life
    • Ciekawostki
    • Gaming
    • Miasto
    • Moda
    • Rozrywka
    • W pracy
  • Opinie
  • Narzędzia
    • Rynki
    • Giełda kryptowalut
    • Twoje zakładki
    • Śledzenie tematów
    • Newsletter
Follow US
  • Redakcja
  • Regulamin
  • Polityka prywatności
  • Polityka plików cookies
  • Oświadczenie o prywatności
© 2017-2023 Brands Stream Sp. z o.o. All Rights Reserved.
Sztuczna inteligencja

Zaufanie i bezpieczeństwo, czyli czego brakuje nam w sztucznej inteligencji

Newsroom BrandsIT
Opublikowano 2023/05/11 at 12:42 PM
Newsroom BrandsIT  - NewsRoom Brandsit
Udostępnij
7 min czytania
AI, sztuczna inteligencja
Udostępnij

Ponieważ innowacje w zakresie generatywnej sztucznej inteligencji (AI) postępują w zawrotnym tempie, obawy dotyczące bezpieczeństwa i ryzyka stają się coraz bardziej widoczne. Niektórzy prawodawcy zażądali nowych zasad i przepisów dotyczących narzędzi sztucznej inteligencji, podczas gdy niektórzy liderzy technologiczni i biznesowi zasugerowali przerwę w szkoleniu systemów sztucznej inteligencji w celu oceny ich bezpieczeństwa. 

- Reklama -

W rozmowie Avivah Litan , wiceprezes ds. analityki w firmie Gartner omówiła, co liderzy danych i analityki odpowiedzialni za rozwój sztucznej inteligencji powinni wiedzieć na temat zarządzania zaufaniem, ryzykiem i bezpieczeństwem AI. 

Biorąc pod uwagę obawy związane z bezpieczeństwem i ryzykiem sztucznej inteligencji, czy organizacje powinny nadal badać wykorzystanie generatywnej sztucznej inteligencji, czy też uzasadniona jest przerwa?

Dalsza część publikacji pod materiałem wideo.

Avivah Litan: Rzeczywistość jest taka, że ​​rozwój generatywnej sztucznej inteligencji nie zatrzymuje się. Organizacje muszą działać już teraz, aby sformułować ogólnokorporacyjną strategię zarządzania zaufaniem, ryzykiem i bezpieczeństwem AI (AI TRiSM). Istnieje pilna potrzeba nowej klasy narzędzi AI TRiSM do zarządzania przepływami danych i procesów między użytkownikami a firmami, które obsługują generatywne modele AI. 

Obecnie na rynku nie ma gotowych narzędzi, które zapewniałyby użytkownikom systematyczną gwarancję prywatności lub skuteczne filtrowanie treści ich interakcji z tymi modelami, na przykład filtrowanie błędów rzeczowych, halucynacji, materiałów chronionych prawem autorskim lub informacji poufnych.

Twórcy sztucznej inteligencji muszą pilnie współpracować z decydentami, w tym z nowymi organami regulacyjnymi, które mogą się pojawić, w celu ustanowienia zasad i praktyk dotyczących generatywnego nadzoru nad sztuczną inteligencją i zarządzania ryzykiem. 

Jakie są niektóre z najbardziej znaczących zagrożeń, jakie generatywna sztuczna inteligencja stwarza obecnie dla przedsiębiorstw?

Avivah Litan: Generatywna sztuczna inteligencja wiąże się z szeregiem nowych zagrożeń: 

„Halucynacje” i fabrykacje , w tym błędy rzeczowe, to jedne z najbardziej rozpowszechnionych problemów, które już pojawiają się w przypadku generatywnych rozwiązań chatbotów wykorzystujących sztuczną inteligencję. Dane szkoleniowe mogą prowadzić do stronniczych, nietrafionych lub błędnych odpowiedzi, ale mogą być one trudne do wykrycia, zwłaszcza że rozwiązania są coraz bardziej wiarygodne i można na nich polegać.

Deepfake , gdy generatywna sztuczna inteligencja jest wykorzystywana do tworzenia treści w złośliwych zamiarach, stanowi znaczące ryzyko generatywnej sztucznej inteligencji. Te fałszywe obrazy, filmy i nagrania głosowe były wykorzystywane do atakowania celebrytów i polityków, tworzenia i rozpowszechniania wprowadzających w błąd informacji, a nawet tworzenia fałszywych kont lub przejmowania i włamywania się na istniejące legalne konta.

W niedawnym przykładzie wygenerowany przez sztuczną inteligencję obraz papieża Franciszka w modnej białej puchowej kurtce stał się wirusowy w mediach społecznościowych. Chociaż ten przykład wydawał się pozornie nieszkodliwy, dał wgląd w przyszłość, w której deepfakes stwarzają poważne zagrożenia dla reputacji, fałszerstw, oszustw i politycznych dla osób, organizacji i rządów.

Prywatność danych : pracownicy mogą łatwo ujawniać poufne i zastrzeżone dane przedsiębiorstwa podczas interakcji z generatywnymi rozwiązaniami chatbotów opartymi na sztucznej inteligencji. Aplikacje te mogą w nieskończoność przechowywać informacje przechwycone za pomocą danych wprowadzanych przez użytkownika, a nawet wykorzystywać informacje do trenowania innych modeli — co jeszcze bardziej zagraża poufności. Takie informacje mogą również wpaść w niepowołane ręce w przypadku naruszenia bezpieczeństwa.

Kwestie praw autorskich : generatywne chatboty AI są szkolone na dużej ilości danych internetowych, które mogą zawierać materiały chronione prawem autorskim. W rezultacie niektóre wyniki mogą naruszać prawa autorskie lub ochronę własności intelektualnej (IP). Bez odniesień do źródeł lub przejrzystości w zakresie generowania danych wyjściowych jedynym sposobem ograniczenia tego ryzyka jest sprawdzanie przez użytkowników danych wyjściowych w celu upewnienia się, że nie naruszają one praw autorskich lub praw własności intelektualnej.

Obawy związane z cyberbezpieczeństwem : oprócz bardziej zaawansowanych zagrożeń związanych z inżynierią społeczną i phishingiem osoby atakujące mogą wykorzystywać te narzędzia do łatwiejszego generowania złośliwego kodu. Dostawcy oferujący generatywne modele sztucznej inteligencji zapewniają klientów, że szkolą swoje modele w zakresie odrzucania złośliwych żądań związanych z cyberbezpieczeństwem; jednak nie zapewniają one użytkownikom narzędzi do skutecznego audytu wszystkich stosowanych zabezpieczeń.

Sprzedawcy kładą również duży nacisk na podejście „czerwonego zespołu”. Twierdzenia te wymagają, aby użytkownicy pokładali pełne zaufanie w zdolnościach dostawców do realizacji celów związanych z bezpieczeństwem.  

Jakie działania mogą teraz podjąć liderzy przedsiębiorstw, aby zarządzać generatywnym ryzykiem AI?

Avivah Litan: Należy zauważyć, że istnieją dwa ogólne podejścia do wykorzystania ChatGPT i podobnych aplikacji. Wykorzystanie modelu out-of-the-box wykorzystuje te usługi w stanie, w jakim są, bez bezpośredniego dostosowywania. Szybkie podejście inżynierskie wykorzystuje narzędzia do tworzenia, dostrajania i oceny szybkich danych wejściowych i wyjściowych.

W przypadku użycia od razu po wyjęciu z pudełka organizacje muszą wdrożyć ręczne przeglądy wszystkich danych wyjściowych modelu w celu wykrycia nieprawidłowych, błędnych lub stronniczych wyników. Ustanów ramy zarządzania i zgodności dotyczące korzystania z tych rozwiązań w przedsiębiorstwie, w tym jasne zasady, które zabraniają pracownikom zadawania pytań ujawniających wrażliwe dane organizacyjne lub osobiste. 

Organizacje powinny monitorować nieusankcjonowane użycie ChatGPT i podobnych rozwiązań za pomocą istniejących kontroli bezpieczeństwa i pulpitów nawigacyjnych, aby wykrywać naruszenia zasad. Na przykład zapory ogniowe mogą blokować dostęp użytkowników korporacyjnych, systemy informacji o bezpieczeństwie i zarządzania zdarzeniami mogą monitorować dzienniki zdarzeń pod kątem naruszeń, a bezpieczne bramy sieciowe mogą monitorować niedozwolone wywołania API. 

Wszystkie te środki ograniczania ryzyka mają zastosowanie do szybkiego użycia inżynieryjnego. Ponadto należy podjąć kroki w celu ochrony danych wewnętrznych i innych wrażliwych danych wykorzystywanych do konstruowania monitów w infrastrukturze stron trzecich. Twórz i przechowuj opracowane monity jako niezmienne zasoby. 

Zasoby te mogą reprezentować sprawdzone monity inżynieryjne, których można bezpiecznie używać. Mogą również reprezentować korpus precyzyjnie dostrojonych i wysoce rozwiniętych podpowiedzi, które można łatwiej ponownie wykorzystać, udostępnić lub sprzedać.

Zobacz również

Jak douczyć i dopasować ChatGPT do swoich potrzeb?

CEO OpenAI szantażuje UE? Regulacje sztucznej inteligencji budzą kontrowersje

Rewolucja w Cyberbezpieczeństwie – Jak Sztuczna Inteligencja Zmienia Reguły Gry

6 zagrożeń związanych z ChatGPT

Zarabianie z AI – nowy wymiar finansów

Źródło Gartner
Skomentuj Skomentuj

Dodaj komentarz Anuluj pisanie odpowiedzi

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze

Scanway
Scanway zmierza na NewConnect. Spółka podała szczegóły oferty publicznej
Inwestycje Pieniądze
Kompetencje cyfrowe, praca
Przegląd polskich rozwiązań technologicznych w HR
Startup Biznes
relaks
Kiedy jest najlepszy czas na pracę, ćwiczenia i relaks? Przewodnik po biorytmach dla lepszego zdrowia
Ciekawostki Work&Life
Partnerstwo
Play dąży do dominacji na rynku telekomunikacyjnym. Kolejna akwizycja operatora
Aktualności biznesowe Biznes

Biznes

  • Aktualności biznesowe
  • Biznes plan
  • E-commerce
  • Marketing
  • Rozwój
  • Startup

Pieniądze

  • Ekonomia
  • Inwestycje
  • Kryptowaluty
  • NFT
  • Podatki i koszty
  • Praca

Branża IT

  • Dystrybucja
  • Kanał partnerski
  • Kariera
  • Programowanie
  • Vendor

Technologia

  • Automatyzacja
  • Big Data
  • Blockchain
  • Chmura
  • Cyberbezpieczeństwo
  • IoT
  • Komunikacja
  • Rozwiązania
  • Sztuczna inteligencja
  • VR

Eco

  • Czysta energia
  • Pogoda i nauka
  • Pojazdy elektryczne
  • Polityka klimatyczna
  • Zrównoważony rozwój

Work&Life

  • Ciekawostki
  • Gaming
  • Miasto
  • Moda
  • Rozrywka
  • W pracy

Narzędzia

  • Rynki
  • Giełda kryptowalut
  • Twoje zakładki
  • Śledzenie tematów
  • Newsletter

Social Media

© 2017-2023 Brands Stream Sp. z o.o. All Rights Reserved.
Brandsit
Zarządzaj swoją prywatnością

Żeby zapewnić najlepsze wrażenia, my oraz nasi partnerzy używamy technologii takich jak pliki cookies do przechowywania i/lub uzyskiwania informacji o urządzeniu. Wyrażenie zgody na te technologie pozwoli nam oraz naszym partnerom na przetwarzanie danych osobowych, takich jak zachowanie podczas przeglądania lub unikalny identyfikator ID w tej witrynie. Brak zgody lub jej wycofanie może niekorzystnie wpłynąć na niektóre funkcje.

Kliknij poniżej, aby wyrazić zgodę na powyższe lub dokonać szczegółowych wyborów. Twoje wybory zostaną zastosowane tylko do tej witryny. Możesz zmienić swoje ustawienia w dowolnym momencie, w tym wycofać swoją zgodę, korzystając z przełączników w polityce plików cookie lub klikając przycisk zarządzaj zgodą u dołu ekranu.

Funkcjonalne Zawsze aktywne
Przechowywanie lub dostęp do danych technicznych jest ściśle konieczny do uzasadnionego celu umożliwienia korzystania z konkretnej usługi wyraźnie żądanej przez subskrybenta lub użytkownika, lub wyłącznie w celu przeprowadzenia transmisji komunikatu przez sieć łączności elektronicznej.
Preferencje
Przechowywanie lub dostęp techniczny jest niezbędny do uzasadnionego celu przechowywania preferencji, o które nie prosi subskrybent lub użytkownik.
Statystyka
Przechowywanie techniczne lub dostęp, który jest używany wyłącznie do celów statystycznych. Przechowywanie techniczne lub dostęp, który jest używany wyłącznie do anonimowych celów statystycznych. Bez wezwania do sądu, dobrowolnego podporządkowania się dostawcy usług internetowych lub dodatkowych zapisów od strony trzeciej, informacje przechowywane lub pobierane wyłącznie w tym celu zwykle nie mogą być wykorzystywane do identyfikacji użytkownika.
Marketing
Przechowywanie lub dostęp techniczny jest wymagany do tworzenia profili użytkowników w celu wysyłania reklam lub śledzenia użytkownika na stronie internetowej lub na kilku stronach internetowych w podobnych celach marketingowych.
Statystyka

Marketing

Funkcje
Zawsze aktywne

Zawsze aktywne
Zarządzaj opcjami Zarządzaj serwisami Zarządzaj dostawcami Przeczytaj więcej o tych celach
Zarządzaj opcjami
{title} {title} {title}
adbanner
Wykryto AdBlock
Nasza strona jest stroną wspieraną przez reklamy. Proszę o białą listę, aby wesprzeć naszą stronę.
Okay, I'll Whitelist
Welcome Back!

Sign in to your account

Lost your password?
X