ಕೃತ್ತಿಮ ಬುದ್ಧಿಮತ್ತೆ ಯ ಅಭಿವೃದ್ಧಿಯ ಬಗ್ಗೆ ವಿಜ್ಞಾನ ಸಂಘದಲ್ಲಿ ಹೆಚ್ಚಾಗಿಯೇ ಆತಂಕವಿದೆ. OpenAI ಯಲ್ಲಿ ಕೆಲಸ ಮಾಡಿದ್ದ ಹಳೆಯ ಭದ್ರತಾ ಸಂಶೋಧಕನು ಭಯಂಕರ ಸಂಪತ್ತಿತ್ತು ಎಂದು ವ್ಯಕ್ತಪಡಿಸುತ್ತಾನೆ: ತಂತ್ರಜ್ಞಾನದ ಮುಂದುವರಿದ ನಿಯಮವು ಎಲ್ಲಾ ನಿರೀಕ್ಷೆಗಳನ್ನು ಮೀರಿಸುತ್ತದೆ. ಈ ಸಾಮಾನ್ಯ ಬುದ್ಧಿಮತ್ತೆ ಕಡೆಗೆ ಅರಾಜಕವಾಗಿ ಸಾಗುವ ದಾರಿ, ಮಾನವಿಕ ವೈಶಿಷ್ಟ್ಯಗಳನ್ನು ಮತ್ತು ನೀತಿ ಮಾನದಂಡಗಳನ್ನು ಬಿಟ್ಟು ಹೋಗುವ ಸಾಧ್ಯತೆಯಲ್ಲಿದೆ. ತಜ್ಞರು ಈ ತ್ವರಿತವು ನಮ್ಮ ಸಮಾಜದಲ್ಲಿ ಅಪರಿವರ್ತನೀಯ ಪರಿಣಾಮಗಳನ್ನು ಉಂಟುಮಾಡಬಹುದು ಎಂಬ ಆತಂಕವನ್ನು ವ್ಯಕ್ತಪಡಿಸುತ್ತಾರೆ, ನಾವೆಲ್ಲ ತಮ್ಮ ವಿಚಾರ ಸಂಪತ್ತು ಮತ್ತು ಭದ್ರತೆಯ ನಡುವಿನ ಏಕತೆ ಉಳಿಯಲಿದೆ.
IA ಶ್ರೇಣಿಯ ಅಭಿವೃದ್ಧಿಯ ಮೇಲಿನ ಆತಂಕಗಳು
OpenAI ಯ ಹಳೆಯ ಭದ್ರತಾ ಸಂಶೋಧಕನು IA ಬಗ್ಗೆ ಅಭಿವೃದ್ಧಿಯ ವೇಗದ ಕುರಿತು ಆಳವಾದ ಆತಂಕಗಳನ್ನು ವ್ಯಕ್ತಪಡಿಸಿದನು. ಸ್ಟೀವನ್ ಅಡ್ಲರ್, ಈ ಪ್ರಗತಿಯಿಂದ ಅವರು ಭಯಂಕರ ಎಂದು ವಿವರಿಸುತ್ತಾರೆ ಮತ್ತು ಈ ತಂತ್ರಜ್ಞಾನದಲ್ಲಿ ಇನ್ಹೆಂಟ್ ಅಪಾಯಕಾರಿ ಪ್ರಮಾಣವನ್ನು ಗಮನಕ್ಕೆ ತರುತ್ತಾರೆ. ಅಡ್ಲರ್ ನ ಪ್ರಕಾರ, ಕಂಪನಿಗಳನ್ನು ಸಾಮಾನ್ಯ ಬುದ್ಧಿಮತ್ತೆ (ಜಿಎಐ) ಗೆ ತ್ವರಿತವಾಗಿ ಸಾಗಿಸಲು ಚಾಲನೆ ನೀಡುತ್ತಿದೆ, ಇದು ಮಾನಭೂತಿ ಮತ್ತು ಕಾರ್ಯಕ್ಷಮತೆಗೆ ಮೀರಿಸುತ್ತಲಿದೆ.
ಧಾರಿತ ಅಪಾಯಗಳು ಮತ್ತು ಸಾಧ್ಯತೆಯ ಪರಿಣಾಮಗಳು
IA ಯ ವೇಗವಾದ ಅಭಿವೃದ್ಧಿಯ ಪರಿಣಾಮಗಳು ಯಾವುದೇ ತಟಸ್ಥ ಪ್ರಶ್ನೆಗಳನ್ನು ಎಬ್ಬಿಸುತ್ತವೆ. ಅಡ್ಲರ್ IA ಸಿಸ್ಟಮ್ಗಳ ನಿಯಂತ್ರಣ ತಪ್ಪಿದಾಗ, ಮಾನವ ಅವಸ್ಟಿಯನ್ನು ಅವಶ್ಯವಾಗಿ ಅಪಾಯಗಳೆಂಬುದಾಗಿ ತಮ್ಮ ಆತಂಕವನ್ನು ವ್ಯಕ್ತಪಡಿಸುತ್ತಾರೆ. ಅನೇಕ ತಜ್ಞರು ಈ ಪ್ರವೃತ್ತಿ ಬಗ್ಗೆ ಆತಂಕ ವ್ಯಕ್ತಿಸುತ್ತಾರೆ. ನೊಬೆಲ್ ಪ್ರಶಸ್ತಿ ವಿಜೇತ ಜ್ಯೋಫ್ರಿ ಹಿಂಟನ್, ಈ ಭಯವನ್ನು ಹಂಚಿಕೊಂಡಿದ್ದಾರೆ, ಶಕ್ತಿಯುತ ಸಿಸ್ಟಮ್ಗಳು ಮಾನವರ ನಿಯಂತ್ರಣವನ್ನು ತಪ್ಪಬಹುದು ಎಂದು ತಿಳಿಸುತ್ತಾರೆ.
ಭವಿಷ್ಯದ ಮೇಲೆ ನಿರಾಶಾವಾದದ ದೃಷ್ಟಿಕೋನ
X ಸಂಪರ್ಕದಲ್ಲಿ ಪ್ರಕಟಣೆಗಳಲ್ಲಿ, ಅಡ್ಲರ್ ತಮ್ಮ ಆತಂಕವನ್ನು ವ್ಯಕ್ತಪಡಿಸಿದನು. ಜನಗುಣವು ಕ್ಮಾನಿಸುತ್ತಾ ಬರುವುದರಿಂದ ಜೀವನದ ಸಾಬೂನುನ್ನು ಭಾವಿಸುತ್ತಾನೆ. “ಮಾನವಜಾತಿ ಈ ಹಂತವನ್ನು ತಲುಪುತ್ತದೆಯೇ?” ಅವರು ಸಂಶಯದಲ್ಲಿ ಕೇಳುತ್ತಾರೆ. ಅವರ ಮನಸ್ಸುದಲ್ಲಿ ಭಾವನೆಗಳು, ತಂತ್ರಜ್ಞಾನದ ಉದ್ಯಮದಲ್ಲಿ ಹೆಚ್ಚು ಖಂಡಿತವಾದ uncertainty ವಾಗಿದೆ.
ಮೌಲ್ಯಗಳನ್ನು ಹೊಂದಿಸುವ ಸವಾಲುಗಳು
IA ನ ಪ್ರಕ್ರಿಯೆಯನ್ನು ಏಕೀಕರಣವು, ಗಣಕರಾದ ಪಥವನ್ನು ಗೌರವಿಸುತ್ತವೆ ಎಂಬುದರ ಖಾತರಿಯಾಗಿದೆ, ಇದುವರೆಗೆ ದೊಡ್ಡ ಸವಾಲಾಗಿದೆ. ಅಡ್ಲರ್, ಯಾವುದೇ ಸಂಶೋಧನೆಗಾರನ ದಂತಕಥೆಯಲ್ಲಿ ಅದು ಹೇಗೆ ಇರುವುದನ್ನು ಗಮನಿಸುತ್ತಾರೆ. ಈ ಶ್ರೇಣಿಯಲ್ಲಿ ಪ್ರಗತಿಯ ಕೊರತೆಯು ಉದ್ಯಮವು ಹೆಜ್ಜೆ ಹಾಕುತ್ತಿದೆ ಎಂಬ ಆತಂಕ ಹೆಚ್ಚಿಸುತ್ತದೆ. “ನಮ್ಮ ಪ್ರಗತಿಯ ವೇಗವು ನಮಗೆ ನಿಮಿತ್ತಕ್ಕೆ ಅನುಕೂಲಕರ ಉಲ್ಲೇಖಗಳನ್ನು ಕಲ್ಪಿಸುತ್ತيةಲ್ಲವೇ?” ಎಂದು ಅವರು, ಈ ಕ್ಷೇತ್ರವನ್ನು ನಿಯಂತ್ರಣದ ತೀರದ ಅಗತ್ಯವನ್ನು ಹೊತ್ತಿದ್ದಾರೆ.
OpenAI ನಲ್ಲಿ ಸರಣಿಯಲ್ಲಿ ಹೊರಡುವುದು
OpenAI ತನ್ನ ಭದ್ರತಾಪೀಯರಿಗೆ ಒಳಿತಾದ ಹಾರಾಟವನ್ನು ಎದುರಿಸುತ್ತಿದೆ. ಈ ಪ್ರವೃತ್ತಿಯು IA ಕ್ಕೆ ಬರುವ ಸಮಸ್ಯೆಗಳನ್ನು ಎದುರಿಸಲು ಸಂಸ್ಥೆಯ ಸಿದ್ಧತೆಯ ಕುರಿತು ಆತಂಕವನ್ನು ಉಂಟುಮಾಡುತ್ತದೆ. IA ಯ ಅಪಾಯಗಳ ಮೇಲೆ ಕೆಳಗಿದ್ದು, ಕಂಪನಿಯ ಭದ್ರತಾ ಸಾಗಣೆಯಲ್ಲಿಯಲ್ಲದೆಯೇ ಇರಬೇಕೆಂಬ ಸನ್ನಿವೇಶಗಳು ಮರು ಭಾವಿಸುತ್ತವೆ. 40 ರಿಂದ 50% ನಡುವಿನ ಲಾಂಬಿಕತೆಯ ತಂಡ OpenAI ನಿಂದ ಹೊರಡಲು ಹೋಗುತ್ತಿದೆ, ಇದು ಕಂಪನಿಯ ಉದ್ಯಮದಲ್ಲಿ ಹೆಚ್ಚುತ್ತಿರುವ ಆತಂಕದ ಅರ್ಥವನ್ನು ಸೂಚಿಸುತ್ತದೆ.
ಬಲವಾದ ನಿಯಮಗಳ ಅಗತ್ಯತೆ
ಅಡ್ಲರ್ ಅವರ ಅಪರೂಪವನ್ನು ಸ್ಥಾಪಿಸುತ್ತವೆ IA ಯ ಕ್ಷೇತ್ರದಲ್ಲಿ ನಿಯಮಗಳು ಮತ್ತು ಶ್ರೇಣಿಯ ಒತ್ತಣೆಗೆ ಹೆಚ್ಚಾಗಿರುವುದನ್ನು ಧರ್ಮಗೊಳ್ಳುತ್ತವೆ. ಸಮತೋಲನವನ್ನು ಹೊಂದುವುದು ಮುಖ್ಯವಾಗಿದೆ. IA ಯ ಬೆನ್ನುನೆಗೊಂಡು ದುಷ್ಟವಾದ ಕಡಿಮೆ ಪಾಡುಗಳಲ್ಲಿ ಮಾತುಕತೆಗೆ ಬರುವುದು, ಅಪಾಯವನ್ನು ಹೊಂದಿರುವ, ಶ್ರೇಷ್ಠವಾದ ಮತ್ತು ಕೈಗಳಿಗೆ ಹೇಗೆ ಸಹಿತವಾಗಿದೆ. “ನಿಜವಾದ ಭದ್ರತಾ ನಿಯಮಗಳು” ಕಂಬನಿಯ ಪ್ರಗತಿಯನ್ನುಅನ್ಗಂಗ್ಬೂ ತುಂಬ ಸೇರಿಸಲು ಕೇಳುತ್ತವೆ.
ತಂತ್ರಜ್ಞಾನದಲ್ಲಿ ಪರಿವರ್ತನೆಯ ಪ್ರವೃತ್ತಿಗಳು
ಈ ಆತಂಕಗಳಿಂದ ಪಾರ್ಶ್ವವಾಗಿ, ಚೀನಾವಿನಲ್ಲಿ ಇರುವ ಕಂಪನಿಗಳಾದ DeepSeek, OpenAI ನಂತಹ ಅಮೇರಿಕದ ಆಕ್ರಮಣ ಜನರೊಂದಿಗೆ ಹಣಕಾಸಿನಲ್ಲಿ ಸ್ಪರ್ಧಿಸುತ್ತವೆ ಎಂದು ತಕೃತಿಸುತ್ತದೆ. ಹೊಸ ಮಾದರಿಗಳನ್ನು ಅಭಿವೃದ್ಧಿಯು ಹಂತವಾಗಿದ್ದು, ಅಂತಾರಾಷ್ಟ್ರೀಯ ಸ್ಪರ್ಧೆ ಹೆಚ್ಚಿನ ಸಿನಿಮಾಗಳಾಗುತ್ತದೆ. DeepSeek ಏಕೀಕೃತ IA ಮಾದರಿಗಳನ್ನು ಉಪಾಧಿಯ ಮಾಡಲು, ಎಲ್ಲಾ ಟೆಕ್ನೋಲಾಜಿ ಉದ್ಯಮಕ್ಕೆ ಪರಿಣಾಮಗಳು ಎದುರಿಸುತ್ತವೆ.
ಜಾಗತಿಕ ಗಮನಕ್ಕೆ ಕರೆ
ಅಡ್ಲರ್ ಅವರ ಹೇಳಿಕೆಗಳು IA ಯ ವೇಗ ಮಿತಿಯ ಭವಿಷ್ಯವನ್ನು ಮುಟ್ಟಿಕೊಂಡಿರುವ ಮತ್ತು ಮಾನವಗಣನನ್ನು ಹೆಚ್ಚಿಸಲು ಅಗತ್ಯರವಿದೆ ಎಂಬುದನ್ನು ಧ್ವನಿಸುತ್ತವೆ. ಈ ತಂತ್ರಜ್ಞಾನಗಳಿಗೆ ನೈತಿಕ ಮತ್ತು ಸುರಕ್ಷಿತ ಪಠ್ಯವನ್ನು ಆಲೋಚಿಸುತ್ತವೆ. IA ಯ ಬಳಸಲೂ ಶ್ರೇಣಿಯ ಅಗತ್ಯವೆಂದು ಒಪ್ಪಿಸಲಾಗಿದೆ.
IA ಯ ಅಭಿವಿಮಾನಗಳ ಮೇಲೆ ಪ್ರಶ್ನೆಗಳು
ಕೆಲವು ಸಂಶೋಧಕರೆಂದರೆ IA ಯ ಅಭಿವೀಪಹನು ‘ಭಯಂಕರ’ ಎಂದು ವಿವರಿಸುತ್ತಾರೆ ಏಕೆ?
ಸಂಶೋಧಕರು IA ಯ ವೇಗವಾದ ಏರಿಕೆಯ ಎದುರಿಸಲು ತಮ್ಮ ವೈವಿಧ್ಯತೆಗಳನ್ನು ಪ್ರವೃತ್ತಿಸುತ್ತಿದ್ದಾರೆ, ಏಕೆಂದರೆ ಈ ವೇಗವು ನಾವೆಲ್ಲರ ನೈತಿಕ ಮತ್ತು ಭದ್ರತೆಯ ಪ್ರಚಲಿತವನ್ನು ಮೀರಿಸುತ್ತದೆ. ಇದು ಮಾನವತೆಯಿಗಾಗಿ ಅಪರಿಚಿತ ಪರಿಣಾಮಗಳನ್ನು ಉಂಟುಮಾಡುತ್ತದೆ.
IA ಯ ಸ್ಥಿತಿಗೆ ಸಂಬಂಧಿಸಿದ ಮುಖ್ಯ ಆತಂಕಗಳು ಯಾವುವನ್ನು?
ದ ‘?’ IA ಯ ಶಕ್ತಿಶಾಲಿ ಸಿಸ್ಟಮ್ಗಳು ಮಾನವ ನಿಯಂತ್ರಣವನ್ನು ತಪ್ಪಿದಾಗ, ಅದು ಸಮಾಜ, ಭದ್ರತೆ ಮತ್ತು ಸರ್ವಜೀವನ ಬೆದರುತ್ತದೆ ಎಂಬುದು ಪ್ರಮುಖ ಆತಂಕವಾಗಿದೆ.
IA ಯ ವೇಗದ ಪ್ರಗತಿ ತನ್ನ ಭದ್ರತೆಯ ಶ್ರೇಣಿಯ ಮೇಲೆ ಹೇಗೆ ಪರಿಣಾಮ ಬೀರುವುದೆ?
ಭದ್ರತೆಯ ಸಂಶೋಧಕರು ಏಕೀಕೃತಕರಾಗಬೇಕಾದ ಮಹಿಳೆಯ ಪರ್ಯಾಯಗಳನ್ನು ಅರಿವಾಗಿಸುತ್ತಾರೆ, ಈಗಾಗಲೇ ವೈ ಎಲ್ಲಿ ಮುನ್ನೋಟಕ್ಕೆ ಬೀರುವ ಮುನ್ನವೂ ಹೇಗೆ ಪ್ರಸ್ತುತಪಾದಕವಾಗಿದೆ ಎಂದು ಬಹಿರಂಗವಾಗಿ ತಿಳಿಸುತ್ತಾರೆ, ನಂತರದ ಉದ್ಯೋಗದಲ್ಲಿ ತ್ವರಿತಕ್ಕೆ ಹೊರಗಿನ ”ಭದ್ರತೆಗೆ ” ಏನೆಂದು ಲಿಂಕಿಸುತ್ತಾರೆ.
IA ಯ ಒಗ್ಗಟ್ಟು ಎಂದರೇನು?
IA ಯ ಒಗ್ಗಟ್ಟು, IA ಯತ್ತೆ ಮಾನವರ ಬೆಳ್ಳಿಯು ಆಯ್ಕೆ ಮಾಡುತ್ತದೆ ಮತ್ತು ಸಮಾಜಕ್ಕಾಗಿ ಉತ್ತಮವಾಗಿ ಕಾರ್ಯಕ್ಷಮವಾಗುತ್ತದೆ. ಈ ಚಿಂತನವು ತಂತ್ರಜ್ಞಾನದ ವೇಗದಿಂದ ಇದಕ್ಕಾಗಿಯೇ ಕಾಯನಾದ ಕಾರಣ ಹೆಚ್ಚು ಕಡಿಮೆ ನಿಷ್ಠೆ ಎಂದರೆ ಐಪಿಯಲ್ಲಿರುವ ಪ್ರಗರ್ಯಹೊರೆಯ ವರದಿ ನಡೆಸುತ್ತಾನೆ.
ನಿಯಮನೀವಿಗೆಯ ಕಡೆಗೆ ಮತ್ತೆನೊಂದನೆ ಇಲ್ವಾ?
ಹೌದು, ಅಮೆರಿಕದ ಕಂಪನಿಗಳಿದ್ನಾಗಿಸಿದ್ದಲ್ಲದೆ, OpenAI ಯ ಹಳೆಯ ಸಿಬ್ಬಂದಿಗಳು ದೇಶೀಯ ನಿಯಮಗಳ ಸ್ಥಾಪನವನ್ನಾಗಿಸುತ್ತವೆ.
IAಅರ್ಥದಿಂದ ಆದಾರಿತನವಾಹಕ ಗೋಡುವಾಗ ಏನು?
IA ಬೆಂಡ hondv? IA ಯ ಸಾಮಾನ್ಯಿಯಾಗಿ ವಿರುದ್ಧ ತರುವವರಿಗೆ ಇದರ ಹಿಡಿದಾಡಿಗೆ ಧರ್ಮಾಗಾವಿವರಣೆಯನ್ನು ಸೂಚಿಸುತ್ತದೆ, ಶ್ರದ್ಧೆ ಮಾತುಕತ್ವ ಇಡಿಯಾಗಿ ಆದರೆ ಅರ್ಥದ ಸಂದೀಪೆಯನ್ನು ಬೆಳ್ಳಿಯ ಹಿನ್ನ ಬಗ್ಗೆ ಕೆಲಸವನ್ನು ನೀಡುತ್ತಾರೆ.
IA ಯ ಅಭಿವಾಸಗಳು ಮಾನವಕುಲಕ್ಕೆ ಯಾವ ಅದ್ಧಾದೇಹ ಬೀಕ್ಷೆಗರುತ್ತದೆ?
ಕೆಲವು ತಜ್ಞರು IA ಯ ಹೆಚ್ಚಿನ ಅಬಾಹನ್ನೆ ನೀಡಿದಾಗ, ಇದು ವ್ಯಕ್ತಿಯಕ್ಷಮತೆಯ ಕೆಳಗೆ ಹಾರವನ್ನು ಹೆಚ್ಚು ವೈರಿಯಂತೆ ಇರಿಸುತ್ತದೆ, ಅದು ತೋರುವ ಪ್ರಗತಿಯ ಅದ್ಧಾಷೆಯಾಗಿ ಹೇಳಿಕೊಳ್ಳುತ್ತದೆ.
IA ಯ ಚಾಚನೋ ಹಗುರಿಯ ಬಿಎನ್ತಾಗಿದೆ?
IA ಯ ವೇಗವಿಲ್ಲದ ನಿರಂತರ ಬೇಟೆಯು ಸಂಶೋಧನೆ ಮಾಡುವ ಲ್ಯಾಬ್ಗಳನ್ನು ವ್ಯಾಪಕವಾಗಿಯೇ ಕಡಿಮೆ ಸಕಾಲದಲ್ಲಿ ಶ್ರೇಣಿಯಲ್ಲಿಕೆಯಲ್ಲಿಗೂ ವಿಷಯ ಆನ್ಗಂಗ್ ಕಡೆಗಿನ ಬೆಳವಣಿಗೆಯಲ್ಲಿದೆ, ಇದು ನೈತಿಕ ಮೌಲ್ಯವನ್ನು ಮನಸ್ಸಿನಲ್ಲಿ ನಿಗಾಪಟ ಮಾಡುತ್ತದೆ.
IA ಗೆ ಸಂಬಂಧಿಸಿದ ಅಪಾಯವನ್ನು ತಗ್ಗಿಸಲು ಏನು ಮಾಡಬಹುದು?
ನೀವಿನಲ್ಕಾರ ಹಂಗು ಹಿಡಿದ ಮೇಲೆ, ನಿಯಮಗಳು ಯೀಳ தரವನ್ನು ಸುಧಾರಿಸುತ್ತವೆ ಮತ್ತು IA ಯ ಅಭಿವೃದ್ಧಿಯಾಧಾರಗೊಂಡ ಲೇಖನದ ಪರಗಣಿಯಲ್ಲಿ ಬಳಸುತ್ತವೆ.
IA ಯ ಅಪಾಯವನ್ನು ಅಧಿಕೃತವಾಗಿ ಹೇಗೆ ತಿಳಿಯಿಸಲಾಗುತ್ತದೆ?
ಪಠ್ಯಗಳನ್ನು ಪೂರಕವಾಗಿ ಮಾಡುವುದು ಏಕಕಾಲದಲ್ಲಿ ಆಗದೆ ಮಾತ್ರಕ್ಕೂ ಕುರಿತಂತೆ ವ್ಯಾಖ್ಯಾರಿಕೆಗಳನ್ನು ಬೆನ್ನೆತ್ತುತ್ತದೆ.