ಮಾನವರಂತೆ ರೋಬೋಟ್​ಗಳಿಂದಲೂ ಮೋಸ, ವಂಚನೆ

ಜನರೇಟಿವ್ AI ಮತ್ತು ಇತರ ಆಧುನಿಕ ತಂತ್ರಜ್ಞಾನಗಳು ಕೂಡಾ ಸುಳ್ಳು ಮತ್ತು ಮೋಸ ಮಾಡಬಹುದು ಎಂದು ಹೊಸ ಅಧ್ಯಯನ ಸಾಬೀತುಪಡಿಸಿದೆ. ಬಳಕೆದಾರರನ್ನು ಕುಶಲತೆಯಿಂದ ನಿರ್ವಹಿಸಲು ಹೊಸ ಮಾರ್ಗವನ್ನು ನೀಡುತ್ತದೆ. ಅಮೆರಿಕದ ಜಾರ್ಜ್ ಮೇಸನ್ ವಿಶ್ವವಿದ್ಯಾಲಯದ ತಂಡ ನಡೆಸಿದ ಈ ಸಂಶೋಧನೆಯ ಉದ್ದೇಶ ಈ ಹೊಸ ತಂತ್ರಜ್ಞಾನಗಳನ್ನು ನೀತಿಶಾಸ್ತ್ರದ ಸಂದರ್ಭದಲ್ಲಿ ಹೇಗೆ ಬಳಸಬಹುದು ಮತ್ತು ಈ ತಂತ್ರಜ್ಞಾನವು ಬಳಕೆದಾರರ ಅಭಿಪ್ರಾಯಗಳನ್ನು ಹೇಗೆ ಪ್ರಭಾವಿಸುತ್ತದೆ ಎಂಬುದನ್ನು ಅರ್ಥಮಾಡಿಕೊಳ್ಳುವ ಉದ್ದೇಶ ಹೊಂದಿತ್ತು.

ಅಧ್ಯಯನದಲ್ಲಿ ಪಾಲ್ಗೊಂಡ ಸುಮಾರು 500 ಜನರಿಗೆ ರೋಬೋಟ್ ವಂಚನೆಯ ವಿವಿಧ ರೂಪಗಳಿಗೆ ಶ್ರೇಯಾಂಕ ನೀಡುವಂತೆ ಕೇಳಲಾಯಿತು. ಯಾವ ರೀತಿಯ ವಂಚನೆಯನ್ನು ಜನರು ಸಹಿಸಿಕೊಳ್ಳಬಹುದು ಮತ್ತು ರೋಬೋಟ್‌ಗಳ ತಪ್ಪು ನಡವಳಿಕೆಯನ್ನು ಅವರು ಹೇಗೆ ಅರ್ಥಮಾಡಿಕೊಳ್ಳಬಹುದು ಎಂಬುದನ್ನು ತಿಳಿಯಲು ಸಂಶೋಧಕರು ಪ್ರಯತ್ನಿಸಿದರು. ಜಾರ್ಜ್ ಮೇಸನ್ ವಿಶ್ವವಿದ್ಯಾನಿಲಯದಲ್ಲಿ ಡಾಕ್ಟರೇಟ್ ಅಭ್ಯರ್ಥಿ ಮತ್ತು ಅಧ್ಯಯನದ ಪ್ರಮುಖ ಲೇಖಕ ಆಂಡ್ರೆಸ್ ರೊಸೆರೊ, “ಅದರ ಸಾಮರ್ಥ್ಯಗಳ ನೈಜ ಸ್ವರೂಪವನ್ನು ಮರೆಮಾಡುವ ಯಾವುದೇ ತಂತ್ರಜ್ಞಾನದ ಬಗ್ಗೆ ನಾವು ಕಾಳಜಿವಹಿಸಬೇಕು. ಇದು ಬಳಕೆದಾರರ ವೀಕ್ಷಣೆಗಳನ್ನು ಬದಲಾಯಿಸುವ ಅಪಾಯ ಉಂಟುಮಾಡಬಹುದು, ಇದು ಮೂಲ ಉದ್ದೇಶಕ್ಕೆ ವಿರುದ್ಧವಾಗಿರಬಹುದು” ಎಂದು ಹೇಳಿದರು.

‘ಫ್ರಾಂಟಿಯರ್ಸ್ ಇನ್ ರೋಬೋಟಿಕ್ಸ್ ಮತ್ತು ಎಐ’ ಜರ್ನಲ್‌ನಲ್ಲಿ ಪ್ರಕಟವಾದ ಸಂಶೋಧನೆ ಪ್ರಕಾರ, ರೋಬೋಟ್‌ಗಳು ಮಾನವರನ್ನು ಮೂರು ವಿಧಗಳಲ್ಲಿ ಮೋಸಗೊಳಿಸಬಹುದಂತೆ. ಅವುಗಳೆಂದರೆ, ‘ಎಕ್ಸಟರ್ನೆಲ್​ ಸ್ಟೇಟ್ ಡಿಸೆಪ್ಶನ್​’, ‘ಹಿಡನ್ ಸ್ಟೇಟ್ ಡಿಸೆಪ್ಶನ್’ ಮತ್ತು ‘ಸುಪರ್ಫಿಶಿಯಲ್​ ಸ್ಟೇಟ್ ಡಿಸೆಪ್ಶನ್’. ಹೆಚ್ಚಿನ ಜನರು ಹಿಡನ್ ಸ್ಟೇಟ್ ಡಿಸೆಪ್ಶನ್ ಅನ್ನು ತಿರಸ್ಕರಿಸಿದ್ದಾರೆ. ರೋಬೋಟ್​ಗಳು ನಮ್ಮನ್ನು ಅತ್ಯಂತ ತಪ್ಪುದಾರಿಗೆಳೆಯುತ್ತವೆ ಎಂದಿದ್ದಾರೆ. ಇನ್ನು ಕೆಲವರು ಸುಪರ್ಫಿಶಿಯಲ್​ ಸ್ಟೇಟ್ ಡಿಸೆಪ್ಶನ್ ಅನ್ನು ಸಹ ತಿರಸ್ಕರಿಸಿದ್ದಾರೆ. ಇದರಲ್ಲಿ ರೋಬೋಟ್‌ಗಳು ನೋವು ಅನುಭವಿಸುವಂತೆ ನಟಿಸಿವೆ ಎಂದು ಹೇಳಿದರು. ನಾವು ಈಗಾಗಲೇ ವೆಬ್ ವಿನ್ಯಾಸ ತತ್ವಗಳು ಮತ್ತು AI ಚಾಟ್‌ಬಾಟ್‌ಗಳನ್ನು ಹೇಗೆ ಬಳಸಲಾಗುತ್ತಿದೆ ಎಂಬುದನ್ನು ನೋಡಿದ್ದೇವೆ. ಅಲ್ಲಿ ಕಂಪನಿಗಳು ನಿರ್ದಿಷ್ಟ ಕಾರ್ಯವನ್ನು ನಿರ್ವಹಿಸಲು ಬಳಕೆದಾರರನ್ನು ಕುಶಲತೆಯಿಂದ ನಿರ್ವಹಿಸಲು ಪ್ರಯತ್ನಿಸುತ್ತಿವೆ. ಈ ಹಾನಿಕಾರಕ ವಂಚನೆಗಳನ್ನು ತಪ್ಪಿಸಲು ನಾವು ಸೂಕ್ತವಾದ ನಿಯಂತ್ರಣವನ್ನು ಜಾರಿಗೆ ತರುವುದು ಅತ್ಯಗತ್ಯ. ಈ ಅಧ್ಯಯನದ ಫಲಿತಾಂಶಗಳು ತಂತ್ರಜ್ಞಾನ ಕಂಪನಿಗಳು ಮತ್ತು ಡೆವಲಪರ್‌ಗಳು ತಮ್ಮ ಉತ್ಪನ್ನಗಳ ನೈತಿಕ ಜವಾಬ್ದಾರಿಯನ್ನು ಗಂಭೀರವಾಗಿ ತೆಗೆದುಕೊಳ್ಳಬೇಕು ಮತ್ತು ಬಳಕೆದಾರರಿಗೆ ಮೋಸ ಮಾಡುವ ಬದಲು ನಿಖರ ಮತ್ತು ಪಾರದರ್ಶಕ ಮಾಹಿತಿ ಒದಗಿಸುವ ವ್ಯವಸ್ಥೆಯನ್ನು ವಿನ್ಯಾಸಗೊಳಿಸಬೇಕು ಎಂದು ಸಂಶೋಧಕರು ಎಚ್ಚರಿಸಿದ್ದಾರೆ.

Leave a Reply

Your email address will not be published. Required fields are marked *