Preferencje help
Widoczny [Schowaj] Abstrakt
Liczba wyników
Powiadomienia systemowe
  • Sesja wygasła!

Znaleziono wyników: 6

Liczba wyników na stronie
first rewind previous Strona / 1 next fast forward last
Wyniki wyszukiwania
Wyszukiwano:
w słowach kluczowych:  duże modele językowe
help Sortuj według:

help Ogranicz wyniki do:
first rewind previous Strona / 1 next fast forward last
PL
W artykule omówiono możliwości implementacji wybranych dużych modeli językowych (LLM) na komputerze Raspberry Pi. W tym celu scharakteryzowano termin „duże modele językowe” (ang. Large Language Models – LLM) oraz omówiono możliwości komputera Raspberry Pi w wersji 5. Przedstawiono koncepcję, realizację oraz wyniki analizy wydajności modeli LLM. Przeanalizowano metryki dotyczące szybkości przetwarzania tokenów i czasu pracy modeli Llama 3.2, Llama 3.1, Phi 3.5 Mini oraz Gemma 2. Zbadano średnie zużycie mocy podczas korzystania z wybranych modeli oraz średnie zużycie mocy potrzebne do wygenerowania jednego tokena przez wybrane modele. Sformułowano wnioski końcowe.
EN
This paper discusses the possibilities of implementing selected large language models (LLM) on the Raspberry Pi computer. The term “Large Language Models” (LLM) is characterized and the capabilities of Raspberry Pi computer version 5 are discussed. It presents the concept, implementation, and results of the performance analysis of LLM models. Metrics regarding token processing speed and operating time of Llama 3.2, Llama 3.1, Phi 3.5 Mini and Gemma 2 models were analyzed. The average power consumption during the use of selected models and the average power consumption to generate one token by selected models were examined. Final conclusions were formulated.
PL
Sztuczna inteligencja coraz śmielej wkracza do mikro- i małych firm, także w Polsce – choć wolniej niż w innych krajach Unii Europejskiej. Wspiera tam, gdzie najbardziej brakuje rąk do pracy: w ofertowaniu, marketingu, obsłudze klienta czy analizie danych. Paradoksalnie, to nie koszty czy brak technologii są największą barierą, lecz brak wiedzy o możliwościach Al. Czy małe firmy – również z branży HVAC – są gotowe na ten krok? Odpowiedzi szukamy w wynikach naszej branżowej ankiety.
EN
Deep learning methods are gaining momentum in radiology. In this work, we investigate the usefulness of vision-language models (VLMs) and large language models for binary few-shot classification of medical images. We utilize the GPT-4 model to generate text descriptors that encapsulate the shape and texture characteristics of objects in medical images. Subsequently, these GPT-4 generated descriptors, alongside VLMs pre-trained on natural images, are employed to classify chest X-rays and breast ultrasound images. Our results indicate that few-shot classification of medical images using VLMs and GPT-4 generated descriptors is a viable approach. However, accurate classification requires the exclusion of certain descriptors from the calculations of the classification scores. Moreover, we assess the ability of VLMs to evaluate shape features in breast mass ultrasound images. This is performed by comparing VLM-based results generated for shape-related text descriptors with the actual values of the shape features calculated using segmentation masks. We further investigate the degree of variability among the sets of text descriptors produced by GPT-4. Our work provides several important insights about the application of VLMs for medical image analysis.
EN
Research objectives and hypothesis/research questions: The study aims to understand managerial attitudes toward accountability when using GenAI-driven data for decision-making and to identify procedures or regulations that could minimize erroneous data usage. Research methods: Employing a qualitative approach, the study collected insights from senior managers through interviews. Participants shared perspectives on employee responsibility for GenAI-informed decisions and suggested methods to ensure data accuracy. The analysis of these insights facilitated the development of a potential framework for GenAI adoption in KM. Main results: Findings reveal that most managers view employees as ultimately accountable for decisions, although they acknowledge GenAI as a supportive rather than a substitutive tool. The need for clear guidelines, thorough testing phases, and the implementation of verification procedures emerged as key strategies for minimizing the risks of inaccurate or false data. Managers also highlighted the importance of well-defined roles, with explicit boundaries for GenAI usage. Implications for theory and practice: The study contributes to theoretical discourse by pinpointing potential accountability structures in GenAI-driven decision-making and by proposing a framework that addresses data verification challenges. Practically, it offers organizations a structured approach to integrating GenAI into KM, emphasizing the need for precise regulations, testing protocols, and ongoing oversight. These insights encourage further exploration of the ethical and social dimensions of GenAI in business settings.
PL
Cel badań i hipotezy/pytania badawcze: Celem badania jest zgłębienie nastawienia kadry zarządzającej do kwestii odpowiedzialności za decyzje oparte na danych z GenAI oraz identyfikacja procedur czy regulacji, które mogłyby minimalizować ryzyko błędów. Metody badawcze: W badaniu wykorzystano podejście jakościowe, pozyskując opinie wyższej kadry zarządzającej z wywiadów. Uczestnicy przedstawiali swoje poglądy na temat odpowiedzialności pracowników za decyzje podejmowane przy wsparciu GenAI oraz wskazywali sposoby zapewnienia wiarygodności danych. Analiza zebranych wypowiedzi posłużyła do opracowania koncepcyjnego modelu wdrażania GenAI w zarządzaniu wiedzą. Główne wyniki: Wyniki pokazują, że większość menedżerów postrzega pracowników jako ostatecznie odpowiedzialnych za podejmowane decyzje, choć jednocześnie traktuje GenAI jako narzędzie wspierające, a nie zastępujące człowieka. Wskazano konieczność wypracowania jasnych wytycznych, przeprowadzenia rzetelnych faz testowych oraz wdrożenia procedur weryfikacyjnych w celu zminimalizowania ryzyka nieścisłych bądź fałszywych danych. Menedżerowie podkreślali także znaczenie klarownego podziału ról oraz ustalenia granic zastosowania GenAI. Implikacje dla teorii i praktyki: Przeprowadzone badanie wzbogaca dyskusję teoretyczną, wskazując potencjalne struktury odpowiedzialności w procesie podejmowania decyzji wspomaganych przez GenAI, a także proponując ramy rozwiązania problemu weryfikacji danych. Z perspektywy praktycznej wyniki sugerują usystematyzowany sposób wdrażania GenAI w zarządzaniu wiedzą, z naciskiem na precyzyjne regulacje, protokoły testowania oraz bieżący nadzór. Otrzymane wyniki zachęcają do dalszego badania wymiarów etycznych i społecznych związanych z wykorzystaniem GenAI w biznesie.
5
Content available remote Unconditional Token Forcing: Extracting Text Hidden Within LLM
EN
With the help of simple fine-tuning, one can artificially embed hidden text into large language models (LLMs). This text is revealed only when triggered by a specific query to the LLM. Two primary applications are LLM fingerprinting and steganography. In the context of LLM fingerprinting, a unique text identifier (fingerprint) is embedded within the model to verify licensing compliance. In the context of steganography, the LLM serves as a carrier for hidden messages that can be disclosed through a designated trigger. Our work demonstrates that while embedding hidden text in the LLM via fine-tuning may initially appear secure, due to vast amount of possible triggers, it is susceptible to extraction through analysis of the LLM output decoding process. We propose a novel approach to extraction called Unconditional Token Forcing. It is premised on the hypothesis that iteratively feeding each token from the LLM’s vocabulary into the model should reveal sequences with abnormally high token probabilities, indicating potential embedded text candidates. Additionally, our experiments show that when the first token of a hidden fingerprint is used as an input, the LLM not only produces an output sequence with high token probabilities, but also repetitively generates the fingerprint itself. Code is available at github.com/jhoscilowic/zurek-stegano.
6
Content available remote Impact of Spelling and Editing Correctness on Detection of LLM-Generated Emails
EN
In this paper, we investigated the impact of spelling and editing correctness on the accuracy of detection if an email was written by a human or if it was generated by a language model. As a dataset, we used a combination of publicly available email datasets with our in-house data, with over 10k emails in total. Then, we generated their “copies'' using large language models (LLMs) with specific prompts. As a classifier, we used random forest, which yielded the best results in previous experiments. For English emails, we found a slight decrease in evaluation metrics if error-related features were excluded. However, for the Polish emails, the differences were more significant, indicating a decline in prediction quality by around 2% relative. The results suggest that the proposed detection method can be equally effective for English even if spelling- and grammar-checking tools are used. As for Polish, to compensate for error-related features, additional measures have to be undertaken.
first rewind previous Strona / 1 next fast forward last
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.