Aktualności

Instytut Kościuszki obejmuje patronatem XVII Kongres Ochrony Informacji Niejawnych, Biznesowych i Danych osobowych

Kongres, odbywający się w dniach 3-5.06.2024, w Bielsku-Białej poświęcony będzie zagadnieniu współczesnych wyzwań i sposobów ochrony informacji w cyberprzestrzeni, zarówno w prywatnym jak i publicznym sektorze. Wydarzenie zbiega się także z 20-leciem Krajowego Stowarzyszenia Informacji Niejawnych.

 

Tematem przewodnim wydarzenia będzie 25-lecie Polski w strukturach NATO jako fundament bezpieczeństwa narodowego. W obliczu trwającej wojny rosyjsko-ukraińskiej obecność Polski w Organizacji Paktu Północnoatlantyckiego jest istotniejsza niż kiedykolwiek. Jako kraj jego wschodniej flanki, potrzebujemy odpornej sieci informacyjno-komunikacyjnej, szczególnie w obliczu rozwoju cyberzagrożeń. 

W ramach konferencji zorganizowane zostaną panele dyskusyjne i sesje wykładowe, w których uczestniczyć będą byli oraz obecni pracownicy i eksperci z domen ochrony danych, bezpieczeństwa wewnętrznego kraju i służb wywiadowczych. W gronie prelegentów znajdą się m. in. gen. prof. Mieczysław Bieniek  b. Deputy of the NATO Rapid Reaction Corps, prof. dr hab. Inż. Marek Gzik, będący Sekretarzem Stanu w Ministerstwie Nauki i Szkolnictwa Wyższego, a także podinsp. dr Agata Lasota-Jądrzak  Pełnomocnik Ochrony Informacji Niejawnych i Inspektor Ochrony Danych Osobowych. 

Wydarzenie zostało objęte patronatem honorowym przez Urząd Ochrony Danych Osobowych. 

Więcej szczegółowych informacji na temat Kongresu znaleźć można na stronie organizatora: https://kongresochronyinformacji.ksoin.pl/.

CYBERSEC Admin Days 2024 – warsztaty z zarządzania i bezpieczeństwa IT

CYBERSEC Admin Days 2024, które odbędą się 19 czerwca, podczas targów CYBERSEC CEE EXPO & FORUM 2024, to warsztaty z zarządzania IT i bezpieczeństwa, organizowane przez Władcy Sieci i Axence.  

W programie Admin Days zaplanowane są warsztaty techniczne i prezentacje prowadzone przez Piotra Adamczyka, Technical Account Managera w Axence, Sławomira Szmulika, Kierownika Działu Informatyki Szpitala Specjalistycznego SP ZOZ MSWiA w Głuchołazach oraz Rafała Gołębiowskiego, Menedżera ds. cyberbezpieczeństwa.
 

Uczestnicy zdobędą wiedzę z zakresu podstawowych zadań administratorów, poznają dobre praktyki działu IT w perspektywie NIS2 oraz wezmą udziału w praktycznych warsztatach skupionych wokół analizy incydentów z wykorzystaniem zrzutów pamięci RAM i zarejestrowanego ruchu sieciowego. Po wydarzeniu uczestnicy otrzymają dostęp do materiałów.  

Jako jedna z najbardziej cenionych serii wydarzeń w świecie IT, Admin Days zapewnia profesjonalistom z branży niepowtarzalną szansę na nawiązywanie kontaktów, dzielenie się wiedzą i śledzenie najnowszych trendów oraz praktyk w obszarze technologii informatycznych.

Wszystkie warsztaty będą prowadzone wyłącznie w języku polskim. Udział w konferencji tylko dla posiadaczy biletów na konferencję CYBERSEC CEE EXPO & FORUM. 

Jak sztuczna inteligencja (AI) wpływa na edukację?

Liliana Kotval 

 

Przetłumaczono na podstawie –  How AI Has Been Shaping Classrooms – Instytut Kościuszki (ik.org.pl)

 

AI w stosunkowo krótkim okresie, osiągnęła niezwykle imponujące sukcesy. Od przewidywania trendów na giełdzie, po tworzenie piosenek z wokalami zmarłych artystów, sztuczna inteligencja staje się coraz bardziej wyrafinowana i staje się częścią życia codziennego. Zaczęliśmy ją wdrażać w wirtualnych asystentach w smartfonach i IoT (Internet of Things), w przeglądarkach internetowych, klasach, w chatbotach do obsługi klienta, w rozpoznawaniu twarzy w systemach bezpieczeństwa oraz w diagnostyce medycznej i systemach opieki zdrowotnej. Szczególnie w dziedzinie szkolnictwa i środowiska akademickiego obserwujemy ogromny wpływ na spersonalizowane nauczanie. Uczenie się nigdy nie było tak dostosowane do studentów, a planowanie lekcji nie było tak skuteczne. Siedzenie przez cały dzień w klasie, podczas gdy nauczyciel pisze notatki na tablicy, nie jest ani wciągające, ani skuteczne. Sztuczna inteligencja ma moc kwestionowania typowych metod nauczania oraz pozwala określić preferencje i potrzeby edukacyjne danej osoby.  

Zanim przejdziemy do szczegółów, w jaki sposób AI ukształtowała techniki uczenia się i badań, lepiej zrozummy, czym naprawdę ona jest. Pierwsza świadomość kulturowa terminu AI pochodzi z filmu z 1968 roku „2001: Odyseja kosmiczna”, w którym podobny do człowieka statek kosmiczny pomógł astronaucie w jego podróży przez kosmos (3). W tamtych czasach koncepcja technologii na wzór człowieka była wytworem wyobraźni. Teraz, zaledwie 56 lat później, sztuczna inteligencja nie jest niczym wyimaginowanym – jest realna. Jej dzisiejsza koncepcja tylko nieznacznie różni się od tej przedstawionej w filmie. Nadal identyfikujemy sztuczną inteligencję jako podobną do człowieka w taki sposób, że może symulować przetwarzanie ludzkiej inteligencji i z nami rozmawiać, wyszukiwać informacje itp.; jednak sposób, w jaki wykonuje te zadania, polega na bezemocjonalnym i bezkrytycznym przetwarzaniu informacji, co stanowi zupełne przeciwieństwu ludzkiego rozumowania. Systemy sztucznej inteligencji działają poprzez przyjmowanie dużych ilości oznaczonych danych treningowych, następnie ich analizowanie pod kątem wzorców, a na końcu używają tych wzorców do przewidywania. Programowanie AI wykorzystuje 4 główne umiejętności kognitywne (10): 

  1. Uczenie się: Algorytmy są tworzone poprzez pozyskiwanie danych i tworzenie reguł. Algorytmy te dostarczają urządzeniom instrukcje krok po kroku, jak wykonać zadanie. 
  2. Wyciąganie wniosków: Odpowiedni algorytm jest wybierany w zależności od sytuacji. 
  3. Samokorekta: Algorytmy ciągle się zmieniają, aby zapewnić najdokładniejsze wyniki. 
  4. Kreatywność: Sieci neuronowe, systemy oparte na regułach i metody statystyczne są wykorzystywane do generowania nowych obrazów, tekstów i pomysłów. 

Przykładem tego procesu jest sytuacja, w której chatbot otrzymuje przykłady odpowiedniego tekstu do wykorzystania w odpowiedzi na określone elementy zawarte w zapytaniach klientów. Bardziej zaawansowana generatywna sztuczna inteligencja może tworzyć realistyczne dzieła sztuki, muzykę lub obrazy. Z drugiej strony można argumentować, że pod pewnymi względami AI jest podobna do nas, ponieważ wykorzystuje wyuczone informacje i tysiące przykładów (osobiste doświadczenie, w kategoriach ludzkich), aby wygenerować odpowiedź. Jednak te zaprogramowane odpowiedzi nie są autentyczne i brakuje im personalizacji i emocji, które może dać tylko człowiek. Niemniej jednak, wkrótce będziemy mogli zobaczyć AI z funkcją samoświadomości. 

 Wielu dorosłych zgodziłoby się, że nauczyciele stosowali przestarzałe, zbędne i nieefektywne techniki uczenia się, gdy byli w szkole. Jak wynika z badania przeprowadzonego w 2016 r., 59% młodych ludzi w UE stwierdziło, że ich krajowe wykształcenie jest dobrze dostosowane do obecnego świata pracy (5). Za oceanem, z jeszcze niższą oceną, tylko 43% dorosłych w USA było zadowolonych z amerykańskiego systemu edukacji w ankiecie z 2010 roku (2). Liczby te z pewnością można by poprawić poprzez integrację narzędzi sztucznej inteligencji, choć nie jest to jedyna opcja, ponieważ Finlandia pokazała światu swoje wysoce skuteczne metody uczenia się za pomocą bardziej konwencjonalnych metod. Finlandia ma jednak kilka innych czynników przyczyniających się do sukcesu edukacyjnego, takich jak konkurencyjny sektor edukacji i niski poziom ubóstwa, których inne kraje mogą nigdy nie osiągnąć. W tym przypadku i niektóych innych krajach, w których całkowita reforma sektora edukacji wydaje się niemożliwa, sztuczna inteligencja może być odpowiedzią. Tam gdzie jest technologia, jest sztuczna inteligencja, którą można łatwo włączyć do nauczania za pomocą platform internetowych lub oprogramowania, takiego jak ChatGPT lub OpenAI. 

Chociaż pierwsze zastosowania sztucznej inteligencji w edukacji sięgają lat 70’, użycie AI w szkołach gwałtownie wzrosło w ubiegłym roku. Badanie Forbesa z 2023 r. wykazało, że 60% amerykańskich nauczycieli używa sztucznej inteligencji w swoich klasach, a 55% stwierdziło, że spowodowała ona poprawę wyników edukacyjnych (7). Nowo pojawiające się trendy w adaptacji sztucznej inteligencji w klasach obejmują lepszą retencję uczniów, wzrost dostępności, wysoce spersonalizowane treści i większą satysfakcję z zajęć (12). Dodatkowo, nauczyciele i wykładowcy mogą wykorzystywać sztuczną inteligencję, by przewidzieć, którzy studenci z powodu niewystarczających wyników, mogą być skłonni do rezygnacji z dalszej nauki, po to, by następnie byli oni w stanie podjąć proaktywne działania w celu poprawy jakości kształcenia takich osób. Niesatysfakcjonujące doświadczenia w trakcie edukacji mogą spowodować, że uczeń, który raz zrezygnował z kontynuowania danego kierunku, może nie być skłonny do późniejszego powrotu na studia, tak więc kadra naukowa, poprzez wczesne zidentyfikowanie problemu, może skutecznie temu zapobiec. Ponadto usługi oparte na sztucznej inteligencji pozwalają nauczycielom szybko i skutecznie dostosować pracę uczniów, planować lekcje adekwatne do potrzeb każdego z nich oraz zwiększać wsparcie dla osób niepełnosprawnych lub mających trudności z nauką. Systemy AI mogą analizować dane ucznia, takie jak jego mocne i słabe strony oraz preferencje edukacyjne, aby oferować dostosowane do jego potrzeb plany lekcji. Informacje zwrotne na temat pracy studentów są natychmiastowe, a poprawa jest łatwiejsza dzięki wirtualnym asystentom, którzy mogą udzielać niezwłocznych informacji na dowolny temat. Ponadto, ciekawe zajęcia szkolne mogą symulować wirtualne laboratoria, na które szkoła może nie mieć budżetu. Dla niektórych edukacja jest przywilejem, a nie prawem, a sztuczna inteligencja ma możliwość przekraczania barier językowych i zaspokajania różnorodnych potrzeb edukacyjnych. 

Mimo, że korzystanie z narzędzi AI przez nauczycieli i wykładowców jest stosunkowo nowe, już teraz możliwe jest zauważenie poprawy efektywności edukacji przy jej użyciu, analizując niedawne badania naukowe dotyczące skuteczności zastosowaia sztucznej inteligencji w instytucjach edukacyjnych. Po pierwsze, w badaniu przeprowadzonym przez Uniwerystet Stanforda, program sztucznej inteligencji został wykorzystany do monitorowania nauki języka angielskiego przez studentów z Ugandy i zaproponowania im konkretnego rozwiązania, gdy nie potrafili oni poradzić sobie z jakimś zadaniem (1). Okazało się, że system sztucznej inteligencji oferował uczniom takie same rozwiązania jak człowiek, demonstrując, że AI może zaspokoić indywidualne potrzeby każdego ucznia, zwłaszcza gdy jest ich duża grupa i niewystarczająca liczba nauczycieli. Po drugie, w badaniu przeprowadzonym przez stronę internetową zajmującą się adaptacyjnym uczeniem – Knewton, odkryto, że uczniowie korzystający z programu adaptacyjnego uczenia się opartego na sztucznej inteligencji poprawili wyniki testów o 62% w porównaniu do studentów, którzy z niego nie korzystali (8). Spersonalizowane opinie i rekomendacje AI mogą zmotywować uczniów i pomóc im w przygotowaniu się do egzaminu. Trzecim przykładem jest Georgia Institute of Technology, gdzie chatbot oparty na sztucznej inteligencji opracowany przez IBM Watson pełnił funckję asystenta w trakcie kursu, w którym brało udział 300 studentów. Chatbot był w stanie odpowiedzieć na 10 000 pytań studentów ze wskaźnikiem dokładności 97%, co byłoby przytłaczające dla tylko jednego nauczyciela (9). W kolejnym przykładzie sztuczna inteligencja została wykorzystana do przewidzenia końcowej oceny ucznia i zapobieżenia jego niepowodzeniu. Ivy Tech Community College w Indianie zidentyfikował 16 000 studentów, których słabe wyniki w nauce groziłyby nieukończeniem studiów i zainterweniował, pracując nad metodami wspomagającymi ich naukę (6). Finalnie, 98% studentów, ryzykujących niezaliczeniem i poinforowanych o tym wcześniej, dzięki systemowi AI, uzyskało ocenę co najmniej C (73-76%). Wreszcie, sztuczna inteligencja stała się istotnym narzędziem oceniania, ponieważ wykazano, że skraca ona czas poświęcany przez nauczycieli na ocenianie o 70% (4). Platforma Gradescope umożliwia uczniom przesyłanie zadań, które następnie są oceniane, a spostrzeżenia na temat wyników są wysyłane zarówno do nauczyciela, jak i samego ucznia. Systemy sztucznej inteligencji przynoszą wiele korzyści środowisku akademickiemu, jak widać w badaniach dotyczą one wpsarcia w uczeniu się, natychmiastowego i dokładnego reagowania na zapytania uczniów, a także znacznie skracają czas korekty. Rynek edukacyjny sztucznej inteligencji stale się rozwija, a jego korzyści rosną; AI z pewnością wkrótce stanie się istotnym aspektem każdej szkolnej klasy.  

Wszystko wiąże się jednak z ryzykiem, a w przypadku sztucznej inteligencji nauczyciele i uczniowie muszą być świadomi problemów związanych z prywatnością i bezpieczeństwem danych, ponieważ AI ma do nich szeroki dostęp. Wykraczają one poza konwencjonalne zapisy studentów, dzienniki ocen i spisy, do których byliśmy przyzwyczajeni (3). Teraz profil ucznia będzie zawierał nie tylko jego dane osobowe, ale będzie także dostępny online i zawierał szczegóły nadzoru nad jego zdolnościami do nauki. Co więcej, wykorzystanie sztucznej inteligencji może utrudnić uczniom tworzenie oryginalnych prac, ponieważ już od końca 2022 r. użytkownicy byli w stanie używać chatbotów AI do pisania esejów, prac graficznych i pobierania streszczeń tekstowych zamiast ich czytania. Z pewnością, wszyscy rozmawialiśmy ze starszym członkiem rodziny o tym, jakie mamy teraz szczęście, mogąc korzystać z różnego rodzaju technologii w trakcie nauki, ponieważ jedyne co oni mieli do dyspozycji to książki i własna wyobraźnia, do których można było się odwołać. Musimy więc bardzo uważać, aby sztuczna inteligencja nie zaszkodziła kreatywności i powstawaniu nieszablonowych pomysłów, gdy jest ona wykorzystywana podczas nauki. Zarówno nauczyciele, jak i studenci będą musieli wspólnie kontrolować, czy jej metody są skuteczne, ale także czy nie ograniczają one powstawania oryginalnych treści, nie pochodzących od sztucznej inteligencji. AI można na przykład wykorzystać do stworzenia streszczenia rozdziału książki, jednak krytyczne myślenie i synteza rozdziału powinna być wykonana przez samego ucznia. Kolejnym potencjalnym problemem związanym ze sztuczną inteligencją może być wzmocnienie się dysproporcji, pomiędzy bezproblemowymi studentami, którym nauka przychodzi z łatwością, a tymi, którzy wymagają więcej skupienia i czasu, ponieważ spersonalizowane metody uczenia się z pomocą AI, mogłyby w długiej perspektywie jedynie nasilać te różnice. Byłoby to objęte klasyfikacją dyskryminacji algorytmicznej, w ramach której algorytmy sztucznej inteligencji mogłyby wykorzystywać dane historyczne, wskazujące na przykład na korzystanie z tzw. ściąg przez danego ucznia w czasie egzaminu, czemu następnie starałaby się ona zapobiec, dostosowując swoje metody nauczania do takiego ucznia (3). Bardzo ważne jest, aby przy wprowadzaniu sztucznej inteligencji do szkół, od razu dobrze zrozumieć jej funkcjonowanie i kontrolować ją, zapobiegając pojawieniu się jakichkolwiek zagrożeń, które mogłyby być później niemożliwe do odwrócenia. Istnieje kilka oczywistych korzyści z używania sztucznej inteligencji w szkołach, jednak mogą być one bez znaczenia, jeżeli miałaby ona zagrażać samodzielności uczniów i ograniczać ich kreatywność, a tym samym pojawianie się indywidualnych pomysłów. 

Przewiduje się, że wartość AI na rynku edukacyjnym przekroczy 20 mld USD do 2027 r. (11). Widzieliśmy już kilka przykładów sztucznej inteligencji wdrażanych w szkołach, takich jak sprawdzanie napisanych testów, tworzenie spersonalizowanych planów lekcji, ale co więcej, można zaobserwować realną poprawę w nauce, przy wykorzystaniu narzędzi AI. Sięganie po sztuczną inteligencję może stworzyć otwarte i zróżnicowane środowisko kształcenia się, jednak potencjalnie zagraża ono zdolności uczniów do indywidualnego myślenia. Aby tego uniknąć, nauczyciele i uczniowie będą więc musieli współpracować, aby zapewnić skuteczność edukacji, nie ograniczającej samodzielnej pracy i dającej dużo satysfakcji. 

 

Więcej informacji na ten temat zostanie omówionych podczas CYBERSEC CEE EXPO & FORUM 2024. 

 

Bibliografia: 

  1. Andrews, Edmund L. “Using Artificial Intelligence to Understand Why Students are Struggling”. Stanford University. July 2021. https://hai.stanford.edu/news/using-artificial-intelligence-understand-why-students-are-struggling  
  2. Brenan, Megan. “K-12 Education Satisfaction in U.S. Ties Record Low”. Gallup. August 2023. https://news.gallup.com/poll/510401/education-satisfaction-ties-record-low.aspx#:~:text=8%25%20of%20U.S.%20adults%20and,%25%20of%20K%2D12%20parents 
  3. Cardona, Miguel A. et al. “Artificial Intelligence and the Future of Teaching and Learning”. Office of Educational Technology. May 2023. https://tech.ed.gov/files/2023/05/ai-future-of-teaching-and-learning-report.pdf  
  4. Crockett, Emma. “How AI is Being Used in Education”. Datamation. March 2023. https://www.datamation.com/artificial-intelligence/how-ai-is-being-used-in-education/  
  5. Eurobarometer. “European Youth in 2016”. https://europa.eu/eurobarometer/surveys/detail/2372  
  6. Google. “Ivy Tech Develops Machine Learning Algorithm to Identify At-Risk Students and Provide Early Intervention”. https://edu.google.com/why-google/customer-stories/ivytech-gcp/  
  7. Hamilton, Ilana. “Artificial Intelligence in Education: Teachers’ Opinions on AI in the Classroom”. Forbes. December 2023. https://www.forbes.com/advisor/education/it-and-tech/artificial-intelligence-in-school/#:~:text=60%25%20of%20Educators%20Use%20AI,reporting%20the%20highest%20usage%20rates 
  8. Harvard University. “Knewton Personalizes Learning with the Power of AI”. April 2021. https://d3.harvard.edu/platform-digit/submission/knewton-personalizes-learning-with-the-power-of-ai/  
  9. Korn, Melissa. “Imagine Discovering That Your Teaching Assistant Really is a Robot”. The Wall Street Journal. May 2016. https://www.wsj.com/articles/if-your-teacher-sounds-like-a-robot-you-might-be-on-to-something-1462546621  
  10. Laskowski, Nicole, et al. “Artificial Intelligence (AI)”. TechTarget. https://www.techtarget.com/searchenterpriseai/definition/AI-Artificial-Intelligence  
  11. PR Newswire. “AI in Education Market Revenue to Cross $20B by 2027; Global Market Insights, Inc.”. June 2021. https://www.prnewswire.com/news-releases/ai-in-education-market-revenue-to-cross-20b-by-2027-global-market-insights-inc-301318889.html  
  12. Schiller. “The Impact of Artificial Intelligence on Higher Education: How it is Transforming Learning”. August 2023. https://schiller.edu/blog/the-impact-of-artificial-intelligence-on-higher-education-how-it-is-transforming-learning#:~:text=AI%20systems%20can%20analyze%20student,it%2C%20enhancing%20their%20learning%20experience. 

Propozycja współpracy między Instytutem Kościuszki a ECSO – Droga do Polskiej Prezydencji UE: wzmacnianie europejskiego cyberbezpieczeństwa

Instytut Kościuszki, renomowana organizacja specjalizująca się w projektach i działaniach z zakresu cyberbezpieczeństwa, oraz Europejska Organizacja ds. Cyberbezpieczeństwa (ECSO) mają wspólną misję: budowanie i wzmacnianie europejskiego cyberbezpieczeństwa oraz wspieranie jego struktur. 

Od wielu lat organizowana przez IK konferencja CYBERSEC stanowi platformę dla najważniejszych dyskusji na temat cyberbezpieczeństwa w Europie. Gromadzi ona wiodących ekspertów, przedstawicieli rządowych, przedsiębiorców oraz środowisko akademickie, aby prowadzić dyskusję o najpilniejszych wyzwaniach w tej dziedzinie. 

Biorąc pod uwagę fakt, że Polska obejmie Prezydencję w Radzie UE w 2025 roku, Instytut Kościuszki zamierza aktywnie prowadzić debatę na temat najważniejszych i najbardziej palących problemów związanych z cyberbezpieczeństwem. Będzie to doskonała okazja do wzmocnienia pozycji Polski jako lidera w dziedzinie cyberbezpieczeństwa oraz promowania jej doświadczenia i rozwiązań na arenie międzynarodowej. 

Bazując na naszym wspólnym celu oraz członkostwie IK w ECSO, Instytut proponuje współpracę między dwoma organizacjami w celu wspólnego kształtowania dyskursu dotyczącego cyberbezpieczeństwa przed i w trakcie Polskiej Prezydencji. Mówiąc konkretniej, proponujemy zorganizowanie serii dyskusji wysokiego szczebla, skoncentrowanych na kluczowych wyzwaniach związanych z cyberbezpieczeństwem. Planowane wydarzenia odbędą się zarówno w Brukseli, jak i w Krakowie, a ostateczne debaty będą miały miejsce podczas głównego wydarzenia CYBERSEC w 2025 roku. Współpraca zakłada bliską kooperację z europejskim ekosystemem cyberbezpieczeństwa, w tym głównie z członkami ECSO, europejskimi decydentami oraz liderami biznesu. 

List intencyjny między Instytutem Kościuszki a ECSO zostanie podpisany podczas otwarcia konferencji CYBERSEC 2024. 

Jesteśmy pewni, że nasza współpraca będzie cennym wkładem w budowę silniejszego i bezpieczniejszego świata cyfrowego. 

Instytut Kościuszki partnerem instytucjonalnym Konferencji „Razem przeciw dezinformacji. 10 lat fact-checkingu w Polsce”

Krajobraz cyberbezpieczeństwa w dzisiejszym świecie dobitnie wskazuje na to, że problem dezinformacji wciąż się pogłębia. Aby go zatrzymać, potrzebne są inicjatywy docierające do jak największej grupy odbiorców i użytkowników cyberprzestrzeni. Z tego powodu Instytut Kościuszki ma przyjemność ogłosić współpracę w ramach partnerstwa instytucjonalnego ze Stowarzyszeniem Demagog pierwszą w Polsce organizacją factcheckingową. Z okazji obchodów 10-lecia swojej działalności oraz 2 rocznicy działalności koalicji Razem Przeciw Dezinformacji stowarzyszenie organizuje 12 kwietnia 2024 roku konferencję „Razem przeciw dezinformacji. 10 lat fact-checkingu w Polsce”, na której swoją premierę będzie miała druga edycja raportu „Dezinformacja oczami Polaków 2024”. 

 

Początki Demagoga sięgają kwietnia 2014 roku, kiedy to oddolnie zorganizowana grupa studentek i studentów zaczęła weryfikować wypowiedzi i obietnice wyborcze polityków. Wcześniej w Polsce nie istniała żadna inna organizacja zajmująca się fact-checkingiem, tym samym powstanie Demagoga jest równoznaczne z początkiem profesjonalnej weryfikacji faktów w kraju. Dziś licznik na stronie stowarzyszenia wskazuje blisko 6 tys. sprawdzonych wypowiedzi i prawie 2,5 tys. obalonych fałszywych informacji. „Przez 10 lat kierunek nadawały nam wyłącznie fakty. Fałszywe informacje istniały od dawna i wciąż będą się pojawiać, ale bez wysiłków organizacji factcheckingowych, takich jak nasza, mogłyby wyrządzić znacznie więcej szkód. Dlatego kontynuujemy naszą misję, opierając się wyłącznie na rzetelnych informacjach” – mówi Małgorzata Kilian-Grzegorczyk, prezes Stowarzyszenia Demagog. 

 

Konferencja „Razem przeciw dezinformacji. 10 lat fact-checkingu w Polsce” 

12 kwietnia Demagog organizuje największą w Polsce konferencję na temat zwalczania dezinformacji. Tego dnia osoby ze środowiska dziennikarskiego, naukowego, biznesowego i politycznego zjednoczą swoje siły, aby wspólnie przemyśleć kluczowe tematy związane z dezinformacją. Rozmowy będą skupiać się na ocenie wpływu dezinformacji na społeczeństwo oraz skali zjawiska zarówno w Polsce, jak i na całym świecie. Omówione zostaną również wyzwania stojące przed środowiskiem factcheckingowym oraz znaczenie sztucznej inteligencji w kontekście dezinformacji. Przedmiotem dyskusji będą też strategie edukacji medialnej jako narzędzia wzmacniania społecznej odporności na dezinformację. Rzeczywistość ostatnich lat pokazała, że fact-checking jest szczególnie potrzebny w czasie kryzysów zdrowotnych, wojennych i społecznych. Wie to doskonale redaktor naczelny ukraińskiego portalu StopFake.org – Jewhen Fedczenko – który otworzy konferencję swoim wystąpieniem.  

 

Dezinformacja oczami Polaków 

Podczas konferencji „10 lat fact-checkingu w Polsce” odbędzie się premiera drugiej edycji raportu o stanie dezinformacji w Polsce, który powstał na podstawie badania opinii społecznej. Raport przygotowano w ramach koalicji Stowarzyszenia Demagog, Fundacji Digital Poland i Związku Firm Public Relations „Razem przeciw dezinformacji”, która również obchodzi urodziny – już drugie. Z pierwszej edycji raportu „Dezinformacja oczami Polaków” wynikało, że ponad 80% osób spotkało się z fałszywymi informacjami. Według 84% zbyt duża ilość tego typu treści w internecie dzieli społeczeństwo i wpływa na demokratyczne wybory. Co się zmieniło od tego czasu? Jak fałszywe informacje wpłynęły na Polaków? Czy są oni świadomi nowych zagrożeń? Odpowiedzi na te pytania zostaną przedstawione już 12 kwietnia w Warszawie. 

Konferencja „10 lat fact-checkingu w Polsce” jest wspierana przez partnerów instytucjonalnych i biznesowych oraz patronów medialnych. Pośród nich, obok Instytut Kościuszki znalazły się m.in.: CyberDefence24.pl, Energetyka24.pl, Śląska Opinia, Fundacja Digital Poland, Sieć Obywatelska Watchdog Polska, CYBERSEC EXPO&FORUM, Google News Initiative oraz Meta.  

Przyszłość komputerów kwantowych – rozmowa z profesorem Konradem Banaszkiem

W najnowszym odcinku podcastu #GeneralTalks zgłębiamy fascynujący i niezwykle szeroki temat komputerów kwantowych. Gościem Liliany Kotval jest profesor Konrad Banaszek – uznany fizyk, dyrektor Centrum Optycznych Technologii Kwantowych na Uniwersytecie Warszawskim.   

Ekspert wprowadza nas do świata komputerów kwantowych, wyjaśniając różnice pomiędzy nimi a tymi konwencjonalnymi, przedstawiając perspektywy rozwoju tej technologii oraz wskazując dziedziny, w których komputery kwantowe mogą okazać się rewolucyjnym rozwiązaniem (takie jak medycyna, zmiany klimatyczne czy redukcja produkowanych odpadów). 

Dodatkowo, profesor Banaszek podkreśla znaczenie zabezpieczenia danych w kontekście wprowadzenia na rynek komputerów kwantowych. Dzieli się praktycznymi wskazówkami dla instytucji i osób prywatnych na ochronę danych przed potencjalnymi zagrożeniami związanymi z rosnącymi możliwościami odszyfrowania, jakie mogą zapewnić te nowe narzędzia. 

Zapraszamy do wysłuchania rozmowy TUTAJ.

Przyszłość cyberbezpieczeństwa i kluczowa rola CISO

Postępująca cyfryzacja międzynarodowych przepływów usług i finansów, poza tworzeniem nowych możliwości dla firm z całego świata, generuje również nowe zagrożenia. W dobie dzisiejszych cyfrowych wyzwań (ataki ransomware, phishing, wyciek danych), zarówno średni przedsiębiorcy jak i wielkie korporacje muszą wdrażać i aktualizować strategie cyberbezpieczeństwa. Nie da się tego jednak zrobić bez zaangażowania CISO – strażnika wirtualnej infrastruktury.  

 

CISO (ang. Chief Information Security Officer) czyli szef bezpieczeństwa informacji, to najwyższy rangą specjalista ds. cyberbezpieczeństwa w organizacji. Jego zadaniem jest nadzorowanie i aktywne zarządzanie wszystkimi obszarami bezpieczeństwa informacji, w tym ochroną danych, identyfikacją zagrożeń i reakcją na incydenty (utrata danych, zewnętrzne cyberataki). 

Do głównych zadań CISO należy opracowywanie i wdrażanie strategicznych planów bezpieczeństwa informacji. Jest to proces obejmujący analizę ryzyka, identyfikację słabych punktów oraz określanie celów bezpieczeństwa. Szef bezpieczeństwa informacji odpowiada również za nadzorwanie reakcji na incydenty, zapewniając szybką identyfikację, analizę i eliminację niechcianych zdarzeń.  

Bardzo ważnym zadaniem jest także implementacja nowoczesnych technologii bezpieczeństwa, takich jak systemy detekcji intruzów, firewalle i rozwiązania antywirusowe. CISO często stanowią rdzeń innowacyjności w firmie. Według badania przeprowadzonego wśród CISO przez amerykańską firmę programistyczną Splunk, 86 % respondentów stwierdziło, że ​​ich rola od czasu rozpoczęcia się zmieniła tak bardzo, że jest to praktycznie inna praca. 

Szef bezpieczeństwa informacji powinien aktywnie budować świadomość cyberbezpieczeństwa wśród personelu. W ramach tych działań CISO między innymi dokonuje diagnozy kompetencji pracowników, prowadzi teoretyczne i praktyczne działania edukacyjne w zakresie bezpieczeństwa cyfrowego oraz przeprowadza kampanie phishingowe lub inne akcje mające na celu weryfikację wiedzy współpracowników. Wreszcie CISO odpowiada za monitorowanie oraz zapewnienie zgodności cyfrowej polityki organizacji z aktualnie obowiązującymi przepisami prawa, np. RODO czy Cyber Resilience Act. 

Stanowisko CISO, istniejące w  strukturach korporacyjnych od połowy lat 90, stosunkowo niedawno zyskało zasłużone uznanie i autorytet. Taka zmiana spowodowana była przez dynamiczny rozwój technologiczny i cyfryzację sektorów usług i finansowego. Ważnym wydarzeniem, które w ostatnich latach jeszcze bardziej wzmocniło pozycję CISO była pandemia COVID-19. Zakłócone wtedy dotychczasowe łańcuchy dostaw, zmiana relacji na rynku i przestawienie pracowników i konsumentów na tryb zdalny, wymusiły zmianę profilu technologicznego i strategii wielu firm. 

Sztuczna inteligencja (AI) i sztuczna inteligencja generatywna (GenAI) stwarzają dalsze możliwości rozszerzenia wpływu i kompetencji CISO. Rozwiązania GenAI zapewniają zaawansowane wykrywanie zagrożeń, automatyzację i adaptacyjną obronę przed cyberzagrożeniami. AI może również pomóc w utrzymywaniu inteligentnej, zautomatyzowanej zgodności prawnej z uchwalanymi na bieżąco regulacjami. 

Aby dowiedzieć się więcej o roli CISO bezpośrednio od profesjonalistów, dołącz już dzisiaj do CYBERSEC CEE Expo & Forum 2024. W ramach tegorocznej edycji organizowane jest spotkanie przedstawicieli fundacji CISO #Poland, zrzeszającej ponad 200 liderów cyberbezpieczeństwa zarówno z sektora prywatnego, jak i publicznego. Poza poruszeniem tematu ochrony informacji i danych, uczestnicy spotkania mogą spodziewać się paneli poświęconych  cyberbezpieczeństwu w transporcie, przełomowych osiągnięć w zakresie komputerów kwantowych i sztucznej inteligencji w Unii Europejskiej. Dołącz do nas, aby wspólnie z ekspertami z Europy i świata budować odporną cyberprzestrzeń. 

 

 

Źródła: 

https://www.financierworldwide.com/ahead-of-the-cyber-curve-the-evolving-role-of-the-ciso 

https://www.westmonroe.com/perspectives/in-brief/the-importance-of-a-ciso 

„Razem przeciwko cyberzagrożeniom” – Spotkanie przedstawicieli Polski i Wielkiej Brytanii

W dniu 8 marca w Krakowie, odbyło się spotkanie poświęcone współpracy polsko-brytyjskiej w zakresie cyberbezpieczeństwa. Wydarzenie zorganizował Instytut Kościuszki we współpracy z Ambasadą Brytyjską w Warszawie. 

 

Głównym punktem programu był panel dyskusyjny, zatytułowany „Together against Cyber Threats: Enhancing Security Resilience through Cyber Threat Intelligence Sharing”. Cyber Threat Intelligence (CTI), a więc rozpoznanie zagrożeń cyberprzestrzeni, rozumiane jest jako proces pozyskiwania oraz przetwarzania informacji dotyczących zagrożeń w domenie cyberprzestrzeni dla określonego podmiotu, organizacji lub państwa. Informacje te mogą pochodzić zarówno z wewnętrznych jak i zewnętrznych źródeł. W panelu, prowadzonym przez Macieja Górę, Project Menagera Instytutu Kościuszki, wzięli udział przedstawiciele brytyjskiej i polskiej administracji państwowej, biznesu, sektora naukowego i wojskowego. 

Dyskusja rozpoczęła się wystąpieniem Crispiana Wilsona, Radcy Politycznego Ambasady Brytyjskiej w Warszawie, który przedstawił priorytety polityki cyberbezpieczeństwa UK w najbliższych latach oraz kierunki rozwoju współpracy polsko-brytyjskiej w zakresie polityki cyberbezpieczeństwa i technologicznej. Przedstawiciel Wielkiej Brytanii podkreślił szczególną rolę Polski w regionie Europy Środkowo-Wschodniej i dotychczasową owocną kooperację obu krajów w ramach NATO, czego przykładem jest m.in. Uruchomienie Mechanizmu Tallińskiego. Zaznaczył, że kolejnym krokiem na drodze instytucjonalnej współpracy powinna być wymiana danych wywiadowczych w zakresie rozpoznania cyberzagrożeń. 

Michał Pukaluk, Zastępca Dyrektora w Departamencie Cyberbezpieczeństwa, Ministerstwa Cyfryzacji RP, udzielił odpowiedzi na pytanie o zaangażowanie polskiego rządu w pozyskiwanie, przetwarzanie i przekazywanie danych dotyczących CTI. Jak przekazał, działania polskiego rządu skupione są na zabezpieczaniu wszystkich poziomów komunikacji, m.in. poprzez utrzymywanie bezpiecznych kanałów informacyjnych i komunikacyjnych między członkami najważniejszych instytucji cywilnych i wojskowych. W kontekście międzynarodowej wymiany danych o CTI, kluczowe jest obranie nowej, zdecentralizowanej perspektywy, zakładającej zinstytucjonalizowaną współpracą na poziomie regionalnych systemów bezpieczeństwa, która następnie rozszerzana jest na pozostałe systemy w regionach Europy. 

 

Robert Kośla, EMEA Chief Architect CYBER w Microsoft zdiagnozował główne wyzwania i zagrożenia dla wymiany CTI, oraz przedstawił strategię Microsoftu w zakresie cyberobrony i dzielenia się danymi o zagrożeniach. Obecnie jednym z największych wyzwań dla cyberbezpieczeństwa  są cyberataki przeprowadzane przez podmioty państwowe (Rosja, Chiny, Korea Północna, Iran) oraz aktorów niepaństwowych (m.in. Hesbollah). W samym tylko 2023 roku, Microsoft namierzył 160 takich ataków. Robert Kośla nawiązał również do wojny na Ukrainie i cyfrowej pomocy Microsoftu dla sił zbrojnych i cyfrowych Ukrainy, polegającej na przekazywaniu sygnałów o rosyjskiej cyberaktywności. Microsoft odpowiada także za budowanie ekosystemu cyberbezpieczeństwa państw, poprzez współpracę projektową z sektorem publicznym.  

 

Wojskową perspektywę wobec CTI przybliżył płk. Jarosław Wacko służący w Wojskach Obrony Cyberprzestrzenii RP. Obecnie, konwencjonalne środki militarne mają nadal większą siłę oddziaływania w trakcie otwartego konfliktu zbrojnego. Należy jednak dostrzec rosnące zagrożenie w cyberprzestrzenii, które może wpływać na destabilizację całego systemu bezpieczeństwa Polski i Europy. Zwiększenie zdolności udostępniania informacji CTI, wymaga więc podjęcia środków bezpieczeństwa i w tej sferze. Rosyjska wojna na Ukrainie pokazała, że informacja stała się nową bronią, której kontrolowanie musi być jednym z elementów strategii wojskowych. Jednocześnie, by w pełni wykorzystywać potencjał obronny, sektor prywatny musi zwiększyć zaangażowanie we współprace z wojskiem, aby zapobiegać powstawaniu luk w strukturach bezpieczeństwa danych. 

 

Perspektywę akademicką pokazała Ewelina Kasprzyk, reprezentująca Akademię Górniczo-Hutniczą w Krakowie. Ewelina podkreśliła, że Polscy naukowcy dysponują olbrzymim potencjałem i kompetencjami, uznawanymi na całym świecie. Problemem jaki naświetliła jest nieadekwatnie niskie zainteresowanie współpracą ze strony instytucji rządowych, które mogłyby dzięki temu skorzystać i wprowadzać innowacyjne rozwiązania do istniejących już mechanizmów i państwowych struktur cyberbezpieczeństwa. Takie zjawisko widoczne jest szczególnie na Zachodzie, gdzie ośrodki naukowe cieszą się zaufaniem władz i ich rekomendacje brane są pod uwagę w procesie decyzyjnym. Uniwersytety są także prekursorami w stosowaniu nowych metod cyberoborny. 

 

Dzięki uprzejmości władz Miasta Krakowa, wydarzenie mogło odbyć się w Pałacu Wielopolskich. 

Po zakończeniu panelu dyskusyjnego odbyła się sesja networkingowa, w trakcie której uczestnicy mieli możliwość nawiązania bezpośrednich kontaktów i pogłębienia relacji między sektorem publicznym, prywatnym a naukowym. Spotkanie współorganizowane przez Instytut Kościuszki umożliwiło wymianę wiedzy, w atmosferze sprzyjającej do budowaniu trwałych partnerstw w dziedzinie cyberbezpieczeństwa. Już dzisiaj, zapraszamy do rejestracji na kolejne wydarzenie poświęcone cyberbezpieczeństwu – CYBERSEC CEE FORUM & EXPO 2024 – największą tego typu konferencję w regionie.  

 

Wyciek danych – jedno z największych cyberzagrożeń

 W dzisiejszym świecie naruszenie bezpieczeństwa danych stanowi najważniejsze cyfrowe zagrożenie dla firm i jednostek. Na podstawie wielu badań przewiduje się, że zjawisko to utrzyma się na wiodącej pozycji do 2026 roku. 

 

Naruszenie i wyciek danych są integralną częścią środowiska cyberzagrożeń, wynikającą z udanego cyberataku, podczas którego poufne lub wrażliwe informacje przechwytywane są przez nieupoważnioną osobę. Poza informacjami, sprawca naruszenia zyskuje również dostęp do przeglądania i udostępniania plików oraz innych informacji. 

W ciągu ostatnich czterech lat zagrożenia cyfrowe i ataki ransomware (ataki wymuszające okup za zwrócenie przechwyconych danych) stały się bardziej powszechne, wyrafinowane i poważne, ze skutkami obejmującymi utratę reputacji, szkody finansowe oraz narażenie na szwank krytycznych operacji i infrastruktury. Po osiągnięciu szczytowego poziomu w 2021 roku, liczba ataków ransomware spadła w 2022 roku w związku z okresem zmniejszonej aktywności hakerskiej. Niestety, liczba cyberataków wzrosła o ponad 170% w pierwszej połowie 2023 roku, sygnalizując konieczność utrzymania czujności w zarządzaniu tym zagrożeniem poprzez strategie takie jak ukierunkowane oceny ryzyka, inwestycje w odpowiednie mechanizmy kontroli i ubezpieczenia systemów software i hardware. Warto jednak również zaznaczyć znaczący rozwój krajowych i ponadnarodowych organów zajmujących się cyberbezpieczeństwem oraz wzrost skuteczności podejmowanych przez nie działań. Najnowszym sukcesem tego typu instytucji było przejecie serwisu grupy hakerskiej Lockbit, oferującego usługi RaaS – Ransome as Service, polegające na możliwości „wykupienia” ataku ransmoware na dowolny, wybrany przez klienta cel. Od 2020 roku, czyli od momentu pierwszego namierzenia oprogramowania ransomware od Lockbit, eksperci naliczyli ponad 1,7 tys. ataków na organizacje (m.in. Boeing) w samym tylko USA. W udaną operację zaangażowanych było wiele współpracujących podmiotów, m.in. Brytyjskie National Cyber Force (NCA), amerykańskie Federalne Biuro Śledcze (FBI) i Europol.   

W kontekście wzrostu liczby pojawiających się wycieków danych, warto zwrócić uwagę na związek między działaniami indywidualnych pracowników a zagrożeniami dla cyberbezpieczeństwa organizacji. Szacuje się, że połowa ataków w 2022 roku była związana z phishingiem i innymi metodami opierającymi się na interakcji jednostek w sieci. Według raportu AON 2023 Cyber Resilience Report, do 2025 roku ponad połowa cyfrowych incydentów będzie spowodowana czynnikiem ludzkim. Co więcej, poprzednie raporty odnotowały czynnik ludzki w 74% wszystkich naruszeń – od zwykłego błędu ludzkiego i inżynierii społecznej po niewłaściwe wykorzystanie uprawnień i skradzionych danych uwierzytelniających. Działania te narażają pracodawców na szereg innych potencjalnych zagrożeń, w tym utratę własności intelektualnej, kary regulatoryjne za naruszenie konkurencji rynkowej i uszczerbek na reputacji. 

Reagowanie na wyciek danych i ich odzyskiwanie staje się coraz bardziej skomplikowane i ciągle podlega rozwojowi. W związku z tym cyberodporność staje się kluczowym tematem dyskusji w zarządach korporacji na całym świecie. Organizacje muszą nieustannie reagować na zagrożenia, łatać luki w systemach bezpieczeństwa oraz tworzyć nowe połączenia w zintegrowanych bazach danych – wszystko to przy jednoczesnym monitorowaniu potencjalnych zagrożeń i zmieniających się wymogów prawnych (szczególnie UE i USA). Dodatkowo, wykorzystanie sztucznej inteligencji (AI) do cyberataków i tworzenia złośliwych oprogramowani staje się kolejnym, szczególnie wrażliwym obszarem dla podmiotów biznesowych, wojskowych i cywilnych na całym świecie. 

Aktywna obrona przed opisanymi zjawiskami stanowi główny cel i misję CYBERSEC CEE Expo & Forum 2024. Uczestnictwo w tegorocznej edycji to doskonała okazja do zdobycia wiedzy na temat najnowszych cyberzagrożeń i stworzenia nowych strategii cyberbezpieczeństwa w oparciu o doświadczenie ekspertów. Dołącz do nas, aby wspólnie budować odporną cyberprzestrzeń w Europie i na całym świecie.  

 

Źródła: 

https://www.aon.com/en/insights/reports/global-risk-management-survey/top-global-risk-1-cyber-attack-and-data-breach 

Ewolucja cyberbezpieczeństwa: Przejście od Przewidywalności do Adaptacyjności

Przebieg ewolucji cyberbezpieczeństwa wyznacza transformacyjną ścieżkę, prowadząc organizacje od stanów podatności do niezrównanej odporności. W swoim najnowszym artykule „Proaktywny paradygmat dla przyszłości cyberbezpieczeństwa”, Matthias Muhlert, członek Rady Programowego #CS24_CEE, przedstawia nową perspektywę rozwoju cyberstrategii dążącej do stanu permanentnego bezpieczeństwa. 

Według Matthiasa, w dynamicznym obszarze cyberbezpieczeństwa, do tej pory konwencjonalnym celem było zabezpieczenie poprzez budowę nieprzepuszczalnych barier cyfrowych i przewidywania każdego możliwego zagrożenia. Jednak najnowsze badania sugerują słuszność nowej perspektywy transformacyjnej, która odbiega od ustalonego i obowiązującego konsensusu. 

Istnieje kilka istotnych założeń wspierających tę tezę. Pierwszym z nich jest konieczność wykorzystywania zakłóceń na własną korzyść. Ta metodologia wykracza poza standardowe rozumienie odporności systemu. Postrzega zakłócenia nie jako zwykłe zagrożenia, lecz jako szanse na postęp. Zamiast tylko zwalczać przeciwne siły, system wykorzystuje je, umacniając się i napędzając własny rozwój 

Tradycyjny model cyberbezpieczeństwa priorytetowo traktuje przewidywanie, kładąc nacisk na środki zapobiegawcze przeciwko monitorowanym zagrożeniom. Jednak w coraz bardziej złożonym cyfrowym krajobrazie ta reaktywna mentalność może być niewystarczająca. Jeśli instytucja kładzie nacisk na adaptacyjność, świadomie rozwijając i doskonaląc swoje mechanizmy, nie tylko przeciwstawia się zakłóceniom, ale także wykorzystuje je do wzmacniania swoich struktur.  

W cyberbezpieczeństwie, choć przewidywalność ma swoje zalety, adaptacyjność oferuje podejście proaktywne. Takie podejście można już dostrzec w kilku sektorach. Instytucje opieki zdrowotnej priorytetowo traktują dynamiczne, reaktywne strategie ponad statycznymi i przewidywalnymi, co prowadzi do rozwoju systemu z równoczesnym, stałym zapewnianiem bezpieczeństwa. Ten innowacyjny paradygmat nie ogranicza się do jednego sektora, ale ma implikacje w różnych branżach. Czy to firma energetyczna wprowadzająca podatności na zagrożenia do swojej inteligentnej sieci, czy instytucja edukacyjna optymalizująca systemy informacyjne studentów, zasada pozostaje ta sama. Poruszając się po skomplikowanych ścieżkach cyberprzestrzeni, musimy dostrzec, że przełomowe rozwiązania często wywodzą się z niekonwencjonalnych pomysłów. W erze cyfrowej kontrolowane zagrożenia mogą być kluczowe w przekształcaniu całego oblicza cyberbezpieczeństwa. Nasza podróż w to nowe terytorium już się rozpoczęła, a wynikające z niej odkrycia mogą być przełomowe. 

Zachęcamy do zapoznania się TUTAJ z treścią całego dokumentu. Jeśli chcesz dowiedzieć się więcej o nowym paradygmacie cyberbezpieczeństwa bezpośrednio od Matthiasa, dołącz już dzisiaj do CYBERSEC EXPO & FORUM 2024.