Identyfikatory
Warianty tytułu
Uczenie równań Maxwella przy wykorzystaniu asystenta LLM
Języki publikacji
Abstrakty
Large Language Models (LLMs) have been gaining tremendous popularity since early 2023 with the release of the GPT-4 system. The new artificial intelligence methods have succeeded in many fields of activity, including education. This article analyses the applicability of LLMs in supporting the teaching of the "Electromagnetic Fields" course in Electrical Engineering studies. Examples of use in various teaching activities are presented. Experiments conducted using four commercial platforms have shown that the responses generated by the GPT-4 model are clearly of the highest quality. The advantages but also risks associated with the use of the proposed methods were discussed.
Duże modele językowe (ang. LLM) zyskują ogromną popularność od początku 2023 roku wraz z wydaniem systemu GPT-4. Nowe metody sztucznej inteligencji odniosły sukces w wielu dziedzinach, w tym w edukacji. W niniejszym artykule przeanalizowano możliwość zastosowania LLM we wspieraniu nauczania przedmiotu "Podstawy elektromagnetyzmu" na studiach na kierunku Elektrotechnika. Eksperymenty przeprowadzone z wykorzystaniem czterech platform komercyjnych pokazały, że odpowiedzi generowane przez model GPT-4 są zdecydowanie najwyższej jakości. Omówiono zalety, ale i zagrożenia związane z wykorzystaniem proponowanych metod.
Słowa kluczowe
Wydawca
Czasopismo
Rocznik
Tom
Strony
15--18
Opis fizyczny
Bibliogr. 16 poz., tab.
Twórcy
autor
- Faculty of Electrical Engineering, Warsaw University of Technology, ul. Koszykowa 75, 00-662 Warszawa, Poland
Bibliografia
- [1] J. L. Docktor and K. Heller, “Students’ conceptual understanding and attitudes in mechanics: A comparison of undergraduate students in introductory physics and engineering mechanics courses,” Physical Review Physics Education Research, vol. 12, no. 1, p. 010130, 2016.
- [2] S. Freeman, S. L. Eddy, M. McDonough, M. K. Smith, N. Okoroafor, H. Jordt, and M. P. Wenderoth, “Active learning increases student performance in science, engineering, and mathematics,” Proceedings of the National Academy of Sciences, vol. 111, no. 23, pp. 8410–8415, 2014.
- [3] L. Zhang, Y. Wang, and Z. Liu, “Ai in education: Recent trends and future directions,” Journal of AI and Education, vol. 1, no. 1, pp. 1–20, 2023.
- [4] I. Roll, V. Aleven, B. M. McLaren, and K. R. Koedinger, “Evaluation of an intelligent tutoring system in mathematics,” Educational Technology & Society, vol. 19, no. 2, pp. 77–92, 2016.
- [5] T. B. Brown, B. Mann, N. Ryder, M. Subbiah, J. Kaplan, P. Dhariwal, A. Neelakantan, P. Shyam, G. Sastry, A. Askell et al., “Language models are few-shot learners,” arXiv preprint arXiv:2005.14165, 2020.
- [6] A. Tamkin, M. Brundage, J. Clark, and D. Ganguli, “Understanding the capabilities, limitations, and societal impact of large language models,” 2021.
- [7] P. Denny, V. Kumar, and N. Giacaman, “Conversing with copilot: Exploring prompt engineering for solving cs1 problems using natural language,” 2022.
- [8] F. Li, X. Xi, Z. Cui, D. Li, and W. Zeng, “Automatic essay scoring method based on multi-scale features,” Applied Sciences, vol. 13, no. 11, p. 6775, 2023.
- [9] J. Wei, X. Wang, D. Schuurmans, M. Bosma, F. Xia, E. Chi, Q. V. Le, D. Zhou et al., “Chain-of-thought prompting elicits reasoning in large language models,” Advances in Neural Information Processing Systems, vol. 35, pp. 24 824–24 837, 2022.
- [10] S. Yao, D. Yu, J. Zhao, I. Shafran, T. L. Griffiths, Y. Cao, and K. Narasimhan, “Tree of thoughts: Deliberate problem solving with large language models,” arXiv preprint arXiv:2305.10601, 2023.
- [11] J. Howard and S. Ruder, “Universal language model fine-tuning for text classification,” arXiv preprint arXiv:1801.06146, 2018.
- [12] J. Devlin, M.-W. Chang, K. Lee, and K. Toutanova, “Bert: Pretraining of deep bidirectional transformers for language understanding,” arXiv preprint arXiv:1810.04805, 2019.
- [13] P. Lewis, E. Perez, A. Piktus, F. Petroni, V. Karpukhin, N. Goyal, H. Küttler, M. Lewis, W.-t. Yih, T. Rocktäschel et al., “Retrievalaugmented generation for knowledge-intensive nlp tasks,” Advances in Neural Information Processing Systems, vol. 33, pp. 9459–9474, 2020.
- [14] T. Mikolov, K. Chen, G. Corrado, and J. Dean, “Efficient estimation of word representations in vector space,” in arXiv preprint arXiv:1301.3781, 2013.
- [15] H. T. et. al, “Llama 2: Open foundation and fine-tuned chat models,” 2023.
- [16] Z. Liang, W. Yu, T. Rajpurohit, P. Clark, X. Zhang, and A. Kaylan, “Let gpt be a math tutor: Teaching math word problem solvers with customized exercise generation,” 2023.
Uwagi
Opracowanie rekordu ze środków MNiSW, umowa nr POPUL/SP/0154/2024/02 w ramach programu "Społeczna odpowiedzialność nauki II" - moduł: Popularyzacja nauki i promocja sportu (2025).
Typ dokumentu
Bibliografia
Identyfikator YADDA
bwmeta1.element.baztech-ea332ab4-9505-4299-b386-f880041ed173
JavaScript jest wyłączony w Twojej przeglądarce internetowej. Włącz go, a następnie odśwież stronę, aby móc w pełni z niej korzystać.