Digitalisierung
Innovationen mit KI
Das Ziel unserer Forschung im Bereich Künstliche Intelligenz (KI) ist es, die neuesten Entwicklungen zu nutzen und in greifbare Lösungen zu übersetzen, die unsere Wertschöpfungsketten optimieren und Innovationen beschleunigen. Neben den internen Forschungsaktivitäten engagiert sich BASF stark in der Zusammenarbeit mit verschiedenen akademischen Einrichtungen im Bereich KI.
So haben BASF und die TU Berlin 2019 im Rahmen von BASLEARN eine Kooperation zur Entwicklung praktikabler neuer Machine-Learning-Modelle (ML) und mathematischer Algorithmen zur Bearbeitung grundlegender Fragestellungen in der Chemie gestartet. Weitere akademische Partner auf dem Gebiet des maschinellen Lernens sind das Massachusetts Institute of Technology (MIT), Imperial College London, die KU Leuven sowie McMaster University und University of Waterloo in Kanada. Auch im Rahmen unserer Quantencomputing-Aktivitäten entwickeln und prüfen wir ML-Algorithmen („quantum machine learning“).
Im Rahmen einer groß angelegten Partnerschaft zwischen dem Imperial College London und BASF wurden fortschrittliche chemische Verfahren entwickelt, die dazu beitragen sollen, den Chemiesektor effizienter und nachhaltiger zu gestalten. Diese Forschungsarbeit hat einen renommierten Preis, Computers & Chemical Engineering (CACE) Best Paper Award 2023, gewonnen. (Mehr Information)
Künstlichen Intelligenz (KI) ist ein zentrales Element der Unternehmensstrategie. Aufgrund der Unternehmensgröße und des einzigartigen Datenpools bietet BASF spannende Arbeits- und Entwicklungsmöglichkeiten für Digitalisierungsexperten. Dies gilt sowohl für Fachleute aus den verschiedenen Bereichen als auch für spezialisierte KI-Experten, die das Potenzial von Datenwissenschaft, modernsten Technologien und Datenquellen nutzen möchten, um die digitale Transformation in der chemischen Industrie voranzutreiben.
Beispiele veröffentlichter Papers:
- Alexander Thebelt, Calvin Tsay, Robert M. Lee, Nathan Sudermann-Merx, David Walz, Behrang Shafei, and Ruth Misener. (2022) "Tree ensemble kernels for Bayesian optimization with known constraints over mixed-feature spaces.”
- Ben Tu, Axel Gandy, Nikolas Kantas, Behrang Shafei (2022) "Joint Entropy Search for Multi-Objective Bayesian Optimization"
- Jose Pablo Folch, Shiqiang Zhang, Robert M. Lee, Behrang Shafei, David Walz, Calvin Tsay, Mark van der Wilk, and Ruth Misener. (2022) "SnAKe: Bayesian Optimization with Pathwise Exploration.”
- Kasmaee, A. S., Khodadad, M., Saloot, M. A., Sherck, N., Dokas, S., Mahyar, H., & Samiee, S. (2024, December). ChemTEB: Chemical Text Embedding Benchmark, an Overview of Embedding Models Performance & Efficiency on a Specific Domain. In NeurIPS Efficient Natural Language and Speech Processing Workshop (pp. 512-531). PMLR. https://proceedings.mlr.press/v262/shiraee-kasmaee24a.html or https://arxiv.org/abs/2412.00532
-
Semnani, P., Bogojeski, M., Bley, F., Zhang, Z., Wu, Q., Kneib, T., Herrmann, J., Weisser, C., Patcas, F., & Müller, K. R. (2024). A machine learning and explainable AI framework tailored for unbalanced experimental catalyst discovery. The Journal of Physical Chemistry C, 128(50), 21349–21367. https://doi.org/10.1021/acs.jpcc.4c05332 (American Chemical Society Editors’ Choice)
-
Thielmann, A., Reuter, A., Weisser, C., Säfken, B., Kant, G., & Kumar, M. (2024). STREAM: Simplified topic retrieval, exploration, and analysis module. In Proceedings of the 62nd Annual Meeting of the Association for Computational Linguistics (ACL (Volume 2: Short Papers) (pp. 435–444). Bangkok, Thailand: ACL. https://doi.org/10.18653/v1/2024.acl-short.41
-
Thielmann, A., Weisser, C., & Säfken, B. (2024). Human in the loop: How to effectively create coherent topics by manually labelling only a few documents per class. In Proceedings of the 2024 Joint International Conference on Computational Linguistics, Language Resources and Evaluation (LREC-COLING) (pp. 8395–8405). https://aclanthology.org/2024.lrecmain.736/
-
Thielmann, A. F., Kumar, M., Weisser, C., Reuter, A., Säfken, B., & Samiee, S. (2024). Mambular: A sequential model for tabular deep learning. arXiv. https://arxiv.org/abs/2408.06291
-
Thielmann, A. F., Samiee, S. (2024). On the Efficiency of NLP-Inspired Methods for Tabular Deep Learning. NeurIPS 2024 Workshop on Efficient Natural Language and Speech Processing (ENLSP-IV) https://proceedings.mlr.press/v262/shiraee-kasmaee24a.html or https://arxiv.org/abs/2412.0053
