Skip to main content

Aktualności Instytutu Podstaw Informatyki PAN

Wykrywanie i interpretacja eufemizmów w językach ukraińskim, polskim i rosyjskim w projekcie DARE w ramach NAWA: IMPRESS-U


Naukowcy z Instytutu Podstaw Informatyki PAN uzyskali finansowanie projektu w ramach wspólnego programu Narodowej Agencji Wymiany Akademickiej z amerykańską National Science Foundation (U.S.NSF) wsparcia dla ukraińskich naukowców - IMPRESS-U. Projekt „IMPRESS-U: DARE: wykrywanie i rozpoznawanie eufemizmów” koordynuje dr Witold Kieraś z Zespołu Inżynierii Lingwistycznej. To wspólny projekt realizowany we współpracy z badaczami z Montclair State University i Ivan Franko National University of Lviv, którego celem jest rozszerzenie badań nad wykrywaniem i interpretacją eufemizmów w językach ukraińskim, polskim i rosyjskim. Inicjatywa koncentruje się na opracowaniu zaawansowanych algorytmów rozpoznawania eufemizmów i badaniu możliwości interpretacji w tym kontekście modeli językowych opartych na sieciach neuronowych. Projekt opiera się na istniejących zbiorach danych w językach: angielskim, joruba, hiszpańskim i chińskim mandaryńskim oraz łączy metody motywowane lingwistycznie z podejściem opartym na sieciach neuronowych (transformatorach), aby rozwiązać zniuansowany problem wykrywania eufemizmów w danych wielojęzycznych.

Więcej…Wykrywanie i interpretacja eufemizmów w językach ukraińskim, polskim i rosyjskim w projekcie DARE...

Weryfikacja systemów wieloagentowych i autonomicznych w artykułach Zespołu Teorii Systemów Rozproszonych i Obliczeniowych na konferencji AAMAS 2024


Naukowcy z Zespołu Teorii Systemów Rozproszonych i Obliczeniowych IPI PAN opublikowali 4 artykuły na konferencji AAMAS 2024 w Auckland (Nowa Zelandia). AAMAS to największa i najbardziej prestiżowa konferencja w tematyce systemów wieloagentowych i autonomicznych, z rangą A* wg rankingu CORE i materiałami punktowanymi za 200 pkt. Artykuły, autorstwa Wojciecha Jamrogi, Mateusza Kamińskiego, Damiana Kurpiewskiego i Wojciecha Penczka, przedstawiają nowe wyniki związane z weryfikacją takich systemów. Dwa z artykułów koncentrują się na własnościach teoretycznych (złożoność obliczeniowa weryfikacji i siła wyrazu proponowanych języków specyfikacji). Pozostałe dwie prace prezentują najnowsze osiągnięcia w implementacji algorytmów weryfikacji w narzędziach STV i SMT4SMTL, rozwijanych przez Zespół. STV+KH zdobył miano Best Demo Award.

Więcej…Weryfikacja systemów wieloagentowych i autonomicznych w artykułach Zespołu Teorii Systemów...

Sztuczna Inteligencja lepiej niż specjaliści diagnozuje spektrum autyzmu [wywiad]


Artykuły prasowe o tej tematyce:

Sztuczna inteligencja lepiej niż specjaliści diagnozuje spektrum autyzmu. AI miała współczynniki czułości i specyficzności na poziomie od 70 do 90 proc. Skuteczność specjalistów to od 60 do losowego 50 proc. - powiedziała PAP dr n.med. Izabela Chojnicka, adiunkt na Wydziale Psychologii Uniwersytetu Warszawskiego.

Spektrum autyzmu, związane z nietypowym rozwojem układu nerwowego, obejmuje wyzwania rozwojowe związane z komunikowaniem się, interakcjami społecznymi, a także występowaniem powtarzających się, nietypowych i nieelastycznych zachowań, zainteresowań i aktywności. Doktor nauk medycznych, adiunkt na Wydziale Psychologii Uniwersytetu Warszawskiego Izabela Chojnicka, razem z dr. Aleksandrem Wawerem z Instytutu Podstaw Informatyki PAN oraz doktor Justyną Sarzyńską-Wawer z Pracowni Psycholingwistyki i Psychologii Poznawczej w Instytucie Psychologii PAN prowadzą interdyscyplinarne badania nad wykorzystaniem technik obliczeniowych - tzw. sztucznej inteligencji oraz technik przetwarzania języka naturalnego - w badaniach spektrum autyzmu. AI wykorzystywana jest do analizy narracji mówionych oraz pisemnych. Algorytmy "uczą się" wychwytywać różnice językowe między wypowiedziami osób w spektrum autyzmu, a osób neurotypowych.

Więcej…Sztuczna Inteligencja lepiej niż specjaliści diagnozuje spektrum autyzmu [wywiad] (PAP)

Seminarium prezentujące Korpus Współczesnego Języka Polskiego, Dekada 2011−2020


25 kwietnia (w godz. 11:30–14:15, w IPI PAN, Jana Kazimierza 5 w Warszawie w sali 5 na parterze) odbędzie się seminarium prezentujące Korpus Współczesnego Języka Polskiego, Dekada 2011−2020 (https://kwjp.pl) powstały w projekcie Dariah.lab.

Projekt ma być zlokalizowany w Instytucie Podstaw Informatyki Polskiej Akademii Nauk w Zakładzie Sztucznej Inteligencji, który w swoich badaniach intensywnie wykorzystuje głębokie uczenie maszynowe do rozwiązywania szeregu problemów analizy danych. Gratulujemy laureatowi i życzymy owocnej pracy w nowo tworzonym zespole badawczym w IPI PAN.

Więcej…Seminarium prezentujące Korpus Współczesnego Języka Polskiego, Dekada 2011−2020

Polski, wielki, otwarty i inteligentny – jaki naprawdę będzie PLLuM?


Z pracującymi nad stworzeniem polskiego, wielkiego modelu językowego PLLuM specjalistkami i specjalistami rozmawiamy o szczegółach tego projektu.

Czym będzie PLLuM i dlaczego konsorcjum polskich uczelni zdecydowało się na jego stworzenie?

Zaczniemy od wyjaśnienia samej nazwy, bo ona w pewnym stopniu odpowiada już na postawione pytanie. PLLuM (Polish Large Language Model) to polski wielki model językowy, czyli odmiana bardzo popularnej ostatnio sztucznej inteligencji, której najsłynniejszymi przedstawicielami są ChatGPT, Claude, Gemini czy Mistral.

PLLuM powstaje w ramach współpracy wiodących jednostek naukowych z obszaru AI, ale warto podkreślić, że są to nie tylko uczelnie. Konsorcjum tworzą: Politechnika Wrocławska (lider projektu), Państwowy Instytut Badawczy NASK, Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy (OPI PIB), Instytut Podstaw Informatyki PAN, Uniwersytet Łódzki oraz Instytut Slawistyki PAN.

Najciekawsza jest jednak oczywiście odpowiedź na drugą część pytania – dlaczego powstaje? Przede wszystkim dlatego, że narodowe wielkie modele językowe są pod wieloma względami korzystne dla rozwoju krajów, które zdecydowały się na ich stworzenie. Z jednej strony jesteśmy świadkami wyścigu polegającego na budowie nowych modeli komercyjnych przez największe firmy technologiczne, takie jak OpenAI czy Google, i wiemy, że działają one również w języku polskim. Są to jednak modele wielojęzyczne z preferencjami, a nawet wiedzą bazującą na języku angielskim i kulturze krajów anglosaskich. W większości takich wielojęzycznych modeli korpusy opierają się w co najmniej 90% na danych anglojęzycznych, a język polski jest tam reprezentowany w bardzo niewielkim zakresie. My natomiast chcemy, by generowane treści formułowane były w dobrej, płynnej polszczyźnie i jak najlepiej odzwierciedlały polskie realia społeczno-kulturowe, ekonomiczne czy prawne.

Z drugiej strony, mamy świadomość, że tego typu inicjatywa musi być w naszym kraju realizowana przez instytucje publiczne, ponieważ dla globalnych graczy rynkowych stworzenie otwartego modelu nie jest priorytetem, zaś polskie podmioty prywatne zazwyczaj nie dysponują odpowiednimi zasobami. Właśnie dlatego powstał PLLuM.

Więcej…Polski, wielki, otwarty i inteligentny – jaki naprawdę będzie PLLuM? (ITwiz)


© 2021 INSTYTUT PODSTAW INFORMATYKI PAN | Polityka prywatności | Deklaracja dostępności